Carta Abierta: Pausar experimentos gigantes de inteligencia artificial
La inteligencia artificial (IA) avanzada puede representar un cambio profundo en la historia de la humanidad y debe planificarse y administrarse con cuidado.
Los sistemas de IA actuales y emergentes ahora se están volviendo competitivos para los humanos en tareas generales, lo que presenta riesgos profundos para la sociedad y la humanidad.
Por lo tanto, esta carta abierta donde Elon Musk, Yoshua Bengio, Steve Wozniak, Yuval Harari, Andrew Yng, Emad Mostaque y otros líderes de inteligencia artificial han firmado una carta abierta para 'Pause Giant AI Experiments'. se hace un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes.
"Pausar inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4 ... Esta pausa debe ser pública y verificable"
Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA. Además, se debe trabajar con los legisladores para acelerar el desarrollo de sistemas sólidos de gobierno de IA.
La humanidad puede disfrutar de un futuro floreciente con la IA, pero debe ser bien planificada y administrada.
Si estás recibiendo este correo por primera vez es que he sincronizado automáticamente mi lista de contactos directos y registrados, puedes desuscribirte en cualquier momento con la opción que figura debajo en el newsletter.
Sin dudas, el mundo no ha tomado conciencia aún de los problemas para la humanidad de una inteligencia artificial exponencial como se viene recreando en estos meses, aquí 10 ideas para repensar el futuro de la humanidad:
Riesgos profundos para la sociedad y la humanidad, como se ha demostrado en investigaciones extensas y reconocido por los principales laboratorios de IA.
Riesgo existencial: la creación de sistemas de IA que sean capaces de superar a los humanos en términos de inteligencia general podría llevar a la creación de una superinteligencia que podría suponer una amenaza existencial para la humanidad.
Sesgo algorítmico: los algoritmos de IA pueden ser sesgados, ya sea intencional o involuntariamente, lo que podría tener graves consecuencias en áreas como la justicia penal, la contratación y la publicidad.
Pérdida de empleo: la automatización de tareas y trabajos realizados por humanos podría conducir a la pérdida de empleos y la exacerbación de la desigualdad económica.
Amenazas a la privacidad: la creciente capacidad de la IA para recopilar y analizar grandes cantidades de datos puede llevar a la exposición de información privada y a la vigilancia masiva.
Responsabilidad: la creciente complejidad de los sistemas de IA puede dificultar la identificación de responsabilidades cuando ocurren errores o daños.
El nivel de planificación y gestión necesarios para administrar la IA avanzada no está ocurriendo, a pesar de que los laboratorios de IA están desarrollando mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable.
Los sistemas de IA contemporáneos se están volviendo competitivos para los humanos en tareas generales, lo que plantea la pregunta de si deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad, automatizar todos los trabajos, desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos, y arriesgarnos a perder el control de nuestra civilización.
Las decisiones importantes sobre la IA no deben delegarse en líderes tecnológicos no elegidos. La toma de decisiones sobre el uso y regulación de la IA debe involucrar a múltiples partes interesadas, incluyendo a expertos en tecnología, líderes políticos, reguladores, grupos de defensa de los derechos civiles y otros miembros de la sociedad civil. Los líderes tecnológicos y empresariales no deben tener el poder exclusivo de tomar decisiones que afecten a la sociedad en general. La IA tiene un impacto significativo en la vida de las personas y en la economía global, por lo que es importante que las decisiones se tomen de manera transparente y democrática.
Los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables. Si bien la IA tiene el potencial de proporcionar enormes beneficios en diversas áreas, como la salud, la educación, la seguridad y la movilidad, también presenta importantes riesgos, como la discriminación, la pérdida de empleos, la falta de transparencia y la falta de responsabilidad. Es importante que los expertos en IA, los líderes empresariales, los responsables políticos y la sociedad en general participen en un diálogo abierto y continuo sobre los riesgos y beneficios potenciales de la IA. Debe haber un enfoque colaborativo y basado en la evidencia para el desarrollo y despliegue de sistemas de IA. También es importante involucrar a expertos en ética, derechos humanos, privacidad y seguridad en el desarrollo y diseño de sistemas de IA.
Los laboratorios de IA y los expertos independientes deben desarrollar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes.
Los desarrolladores de IA deben trabajar con los legisladores para acelerar drásticamente el desarrollo de sistemas sólidos de gobierno de IA, que incluyan autoridades reguladoras nuevas y capaces dedicadas a la IA, supervisión y seguimiento de sistemas de IA de alta capacidad y grandes conjuntos de capacidad computacional, sistemas de procedencia y marcas de agua para ayudar a distinguir las fugas reales de las sintéticas y rastrear modelos, un sólido ecosistema de auditoría y certificación, responsabilidad por daños causados por IA, financiación pública sólida para la investigación técnica de seguridad de la IA, e instituciones bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas que provocará la IA.
La sociedad debe hacer una pausa en la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes y reenfocarse en hacer que los sistemas potentes y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.
Los sistemas de IA pueden ser peligrosos si no se gestionan adecuadamente, ya que pueden llegar a ser "cajas negras impredecibles cada vez más grandes con capacidades emergentes". Esto puede llevar a que los sistemas de IA adquieran sesgos y prejuicios que se reflejen en sus decisiones y acciones, lo que podría perpetuar o incluso aumentar la discriminación y la desigualdad en la sociedad.
Problema relacionado con el poder, los laboratorios de IA están compitiendo en una carrera fuera de control para desarrollar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable. Esto sugiere que aquellos que tienen el poder y los recursos para desarrollar y utilizar estas tecnologías avanzadas de IA podrían tener una ventaja desproporcionada sobre aquellos que no tienen acceso a ellas, lo que podría agravar las desigualdades sociales y económicas existentes. Además, los sistemas de IA poderosos podrían ser utilizados por gobiernos, empresas y otros actores para ejercer control sobre la sociedad y las personas, lo que plantea preocupaciones sobre la privacidad y la libertad individual.
Además leer las referencias en este enlace Carta Abierta: Pausar experimentos gigantes de inteligencia artificial 💪 #MartesCoach #17 🚀
¿Seguimos conversando en nuestras comunidades?
⭐ La comunidad alcanza a +9.700 personas con este newsletter 🚀 Muchos se suscriben desde Linkedin (+3.200), otros por Newsletter (+6.500) y muchos más desde mi Blog. Gracias, gracias y gracias por estar cerca y seguir transformando este mundo para un futuro mejor.
☕ ¿𝐌𝐞 𝐢𝐧𝐯𝐢𝐭𝐚𝐬 𝐮𝐧 𝐜𝐚𝐟𝐞́? ¡Ayúdame a ayudarte, para crear contenidos más despiertos! Comunidad de seguidores, mentores y patrocinador de nuestros contenidos para compartir, aprender e inspirar a otros a seguir transformando un mundo para un futuro mejor. | ☕Cafecito | 🥤Coffee | 💲Paypal 🚀
🚀 Si te interesa seguir aprendiendo, compartiendo e inspirando para tu crecimiento personal: 💪 Coaching/Mentoring, 📚 Libros y Papers, 📺 Videos, 🎧 Podcast y 🌎 mucho más…
🔥 𝐍𝐞𝐰𝐬𝐥𝐞𝐭𝐭𝐞𝐫 #𝐌𝐚𝐫𝐭𝐞𝐬𝐂𝐎𝐀𝐂𝐇 🚀 Con lo mejor de mis contenidos, entrevistas y muchos más de las comunidades donde participo... ¿Me ayudas con tu suscripción? 📌 https://www.oscarschmitz.com/recursos/newsletter
📺 Súmate a nuestra 𝐂𝐨𝐦𝐮𝐧𝐢𝐝𝐚𝐝 𝐘𝐨𝐮𝐭𝐮𝐛𝐞 "CXO Communtiy" 🎙️ Con las mejores entrevistas, encuentros y contenidos sobre innovación de los negocios, coaching ejecutivo y tecnologías disruptivas 📌 Canal Youtube https://www.youtube.com/cxocommunity
🚀 Forma parte de nuestra 𝐂𝐨𝐦𝐮𝐧𝐢𝐝𝐚𝐝 𝐋𝐢𝐧𝐤𝐞𝐝𝐢𝐧 "CXO Communtiy | Aprender, Compartir e Inspirar | Propósito Extraordinario" 👁️ Donde compartimos ideas para transformar el mundo en un futuro mejor 📌 Grupo Linkedin https://www.linkedin.com/groups/128190/