El equipo que se encargaba de estudiar los riesgos de la IA en OpenAI ha sido disuelto

En la actualidad, hablar de inteligencia artificial es hablar, irremediablemente, de OpenAI. La empresa que ha popularizado plataformas como ChatGPT o DALL-E lleva años asegurando que busca la mejor manera de integrar innovación y seguridad en el desarrollo de la IA, pero a juzgar por noticias como la que te contaremos a continuación, esto no parece ser del todo cierto.

Un nuevo problema sacude los cimientos de OpenAI

La empresa estadounidense presentaba en julio de 2023 en su página web a su equipo Superalignment, que, en palabras textuales, se postulaba con el objetivo de ‘resolver retos técnicos centrales en la alineación de la superinteligencia en cuatro años’. Es decir, traducido al castellano que todos entendemos, que buscaba asegurar que sus sistemas de IA fuesen coherentes con los objetivos del ser humano y con nuestros valores éticos.

Sin embargo, o bien el reto ha sido imposible de ejecutar o bien OpenAI no tiene como prioridad alinearse con los objetivos de la humanidad, dado que el medio Wired ha publicado el desmantelamiento de este departamento de la compañía el pasado mes de mayo.

Ha sido el pasado mes, también, cuando Sam Altman anunciaba en una publicación en la red social X que Ilya Sutskever, cofundador de OpenAI, abandonaba la compañía, en un comunicado en el que afirmaba:

Ilya y OpenAI separan sus caminos. Esto es muy triste para mi. Ilya es, fácilmente, una de las grandes mentes de nuestra generación, un faro en nuestro campo y un querido amigo.

Y es con esta noticia es con la que volvemos a enlazar con la disolución del equipo Superalignment, dado que el cofundador de OpenAI era la cabeza visible del proyecto y su marcha parece haber sido el detonante para su evaporación. Además, Jan Leike publicó en X que también abandonaba el equipo, era el otro colíder del mismo. Las razones las explicaba asegurando que:

(…) Durante los últimos meses, mi equipo ha estado navegando contra el viento. A veces hemos tenido problemas de computación y era cada vez más difícil que la investigación se completase (…) OpenAI tiene sobre sus hombros una enorme responsabilidad en nombre de la humanidad, pero durante los últimos años, la cultura de la seguridad y los procesos ha dado un paso atrás por productos más lustrosos (…) Vamos atrasados en ponernos serios acerca de las implicaciones de la inteligencia artificial general. Debemos priorizar prepararnos lo mejor que podamos. Sólo entonces podremos asegurar los beneficios de la inteligencia artificial general para toda la humanidad.

Por el momento, OpenAI no se ha pronunciado acerca de cómo quiere afrontar la salida de los dos miembros más importantes del equipo Superalignment ni tampoco ha hablado acerca de cuál es el futuro de sus modelos de IA, desde el punto de vista de los riesgos asociados a su cada vez más imponentes características. ¿Estaremos a tiempo de parar una maquinaria que parece no poder ya detenerse?

El artículo El equipo que se encargaba de estudiar los riesgos de la IA en OpenAI ha sido disuelto fue publicado originalmente en Urban Tecno.

Sé el primero en comentar

Dejar una contestacion

Tu dirección de correo electrónico no será publicada.


*