Elon Musk y otros piden una pausa en la IA por los «riesgos para la sociedad»
29.03.2023 21:46
© Reuters. FILE PHOTO: ONS 2022 oil and gas conference
Por Jyoti Narayan, Krystal Hu y Martin Coulter
29 mar (Reuters) -Elon Musk y un grupo de expertos en inteligencia artificial y ejecutivos del sector pidieron una pausa de seis meses en el entrenamiento de sistemas más potentes que el recién lanzado modelo GPT-4 de OpenAI, en una carta abierta en la que aluden a posibles riesgos para la sociedad y la humanidad.
A principios de este mes, OpenAI, respaldada por Microsoft (NASDAQ:), presentó la cuarta versión de su programa de IA GPT (Generative Pre-trained Transformer), que ha cautivado a los usuarios con conversaciones similares a las humanas, la composición de canciones y resumiéndoles documentos extensos.
«Los potentes sistemas de IA solo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables», afirma la carta publicada por el Future of Life Institute.
La organización sin ánimo de lucro está financiada principalmente por la Musk Foundation, así como por el grupo londinense Founders Pledge y la Silicon Valley Community Foundation, según el registro de transparencia de la Unión Europea.
OpenAI no respondió de inmediato a una solicitud de comentarios sobre la carta abierta, que instó a una pausa en el desarrollo avanzado de IA hasta que haya protocolos de seguridad compartidos de expertos independientes y desarrolladores que trabajen con los responsables políticos en la gobernanza.
«¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? (…) ¿Debemos desarrollar mentes no humanas que con el tiempo podrían superarnos en número, inteligencia, obsolescencia y reemplazo?», se preguntó la carta, afirmando que «tales decisiones no deben delegarse en líderes tecnológicos no elegidos».
La carta fue firmada por más de 1.000 personas, entre ellas Musk. Sam Altman, presidente ejecutivo de OpenAI, no estaba entre ellos, ni tampoco Sundar Pichai y Satya Nadella, presidente ejecutivos de Alphabet (NASDAQ:) y Microsoft.
Entre los cofirmantes figuran Emad Mostaque, presidente de Stability AI, investigadores de DeepMind -de propiedad de Alphabet- y los expertos Yoshua Bengio, a menudo considerado uno de los «padrinos de la IA», y Stuart Russell, pionero de la investigación en el campo.
La preocupación coincide con la atención de los legisladores estadounidenses sobre ChatGTP por su posible impacto en la seguridad nacional y la educación. Europol, la policía de la UE, advirtió el lunes del posible uso indebido del sistema en intentos de «phishing», desinformación y ciberdelincuencia.
Por su parte, el Gobierno británico presentó propuestas para establecer un marco normativo «adaptable» en torno a la IA.
CARRERA POR LA IA
«La carta no es perfecta, pero la intención es la correcta: tenemos que frenar hasta que entendamos mejor las ramificaciones», dijo Gary Marcus, un profesor emérito de la Universidad de Nueva York que firmó la carta.
«Pueden causar graves daños (…) los grandes actores son cada vez más reservados sobre lo que hacen, lo que dificulta que la sociedad se defienda contra cualquier daño que pueda materializarse», añadió.
Desde su lanzamiento el año pasado, ChatGPT de OpenAI, respaldada por Microsoft, ha llevado a sus competidores a acelerar el desarrollo de grandes modelos lingüísticos similares y a las empresas a integrar modelos generativos de IA en sus productos.
Los inversores, recelosos de confiar en una sola empresa, están acogiendo a los competidores de OpenAI.
Microsoft no quiso hacer comentarios sobre la carta y Alphabet no respondió a las llamadas y correos electrónicos en busca de un comentario.
(Reportes de Jyoti Narayan en Bengaluru y Krystal Hu en Nueva York. edición de Gerry Doyle; editado en español por Flora Gómez)