OpenAI, reconocida por sus avances en el campo de la inteligencia artificial, está desarrollando activamente herramientas y marcos para controlar sistemas de IA con inteligencia superhumana. Consideran que esta forma de inteligencia avanzada podría llegar más pronto de lo esperado, lo que plantea desafíos únicos tanto en términos técnicos como éticos.
Desarrollo de Control para IA Superinteligente
La iniciativa de OpenAI para controlar la IA superinteligente se denomina «superalineamiento». Este esfuerzo se centra en desarrollar medios técnicos para controlar sistemas de IA superinteligentes y «alinearlos» con los objetivos humanos. OpenAI ha dedicado el 20% de su capacidad de cómputo a este proyecto, con la esperanza de tener soluciones para el 2027.
Potencial y Riesgos de la Superinteligencia
OpenAI reconoce que la superinteligencia podría ser la tecnología más impactante jamás inventada por la humanidad, con el potencial de ayudar a resolver muchos de los problemas más importantes del mundo. Sin embargo, también advierten sobre los peligros inherentes a este poder, que podría llevar al desempoderamiento de la humanidad o incluso a la extinción humana. Actualmente, no existe una solución para dirigir o controlar una IA potencialmente superinteligente y evitar que se desvíe de los objetivos deseados. Las técnicas actuales de alineación de IA, como el aprendizaje por refuerzo a partir de retroalimentación humana, dependen de la capacidad de los humanos para supervisar la IA. Sin embargo, esta supervisión puede no ser confiable para sistemas de IA mucho más inteligentes que los humanos, lo que requiere avances científicos y técnicos nuevos.
Enfoque y Metodología
El objetivo de OpenAI es construir un investigador de alineación automatizado a nivel aproximadamente humano. Para lograr esto, necesitan desarrollar un método de entrenamiento escalable, validar el modelo resultante y realizar pruebas de estrés en todo el proceso de alineación. Esto incluye proporcionar señales de entrenamiento en tareas difíciles de evaluar para los humanos, validar la alineación de sus sistemas y probar toda la cadena de alineación entrenando modelos desalineados a propósito y confirmando que sus técnicas detectan los peores tipos de desalineaciones.
Iniciativas y Colaboraciones
OpenAI está formando un equipo de investigadores e ingenieros en aprendizaje automático para trabajar en este problema. Además, planean compartir los resultados de este esfuerzo ampliamente y consideran que contribuir a la alineación y seguridad de modelos no desarrollados por OpenAI es una parte importante de su trabajo. Este nuevo equipo trabajará en conjunto con otros equipos de OpenAI, que se enfocan en mejorar la seguridad de modelos actuales como ChatGPT y en comprender y mitigar otros riesgos de la IA, como el mal uso, la disrupción económica, la desinformación, el sesgo y la discriminación, la adicción y la dependencia excesiva.
Llamado a la Colaboración
OpenAI hace un llamado a los expertos en aprendizaje automático, incluso aquellos que no han trabajado en alineación antes, para unirse a este esfuerzo. Consideran que el alineamiento de la superinteligencia es un problema de aprendizaje automático tratable y que la contribución de expertos podría ser enormemente significativa.
En resumen, OpenAI está tomando medidas proactivas y significativas para abordar los desafíos y riesgos asociados con la llegada potencial de sistemas de IA con inteligencia superhumana. Este esfuerzo multidisciplinario no solo implica avances técnicos, sino también consideraciones éticas y de gobernanza, destacando la importancia de una colaboración global en este campo emergente y crítico.