OpenAI establece un comité evaluador de modelos de inteligencia artificial en respuesta a la disolución de su equipo de seguridad.

Estimated read time 3 min read

OpenAI establece un comité de seguridad para evaluar sus modelos de inteligencia artificial

OpenAI ha formado un comité de consejo de administración para evaluar la seguridad de sus modelos de inteligencia artificial (IA). Este cambio en la gobernanza se produce después de la dimisión del responsable de IA de la empresa y la disolución de su equipo interno. La medida también llega después de las críticas publicadas en The Economist por dos exmiembros del consejo, Helen Toner y Tasha McCauley, sobre la gobernanza de OpenAI.

El nuevo comité llevará a cabo una evaluación de 90 días de las salvaguardas tecnológicas de OpenAI y presentará un informe con sus recomendaciones. La compañía compartirá públicamente las actualizaciones adoptadas en función de la seguridad.

OpenAI también ha anunciado que ha comenzado a entrenar su último modelo de IA. Sin embargo, la empresa ha enfrentado preocupaciones sobre cómo maneja los posibles peligros de esta tecnología, especialmente después de la destitución temporal del CEO Sam Altman el año pasado.

La salida de científicos clave, como Ilya Sutskever y Jan Leike, ha generado aún más preocupaciones sobre la capacidad de OpenAI para abordar las amenazas a largo plazo de la IA sobrehumana. La empresa ha disuelto su equipo y continuará este trabajo bajo su unidad de investigación y con el nuevo Jefe de Ciencia de Alineación, John Schulman.

OpenAI ha tenido dificultades para gestionar las salidas de personal, y recientemente revocó una política que cancelaba el capital de los antiguos empleados si hablaban en contra de la empresa.

Los exmiembros del consejo, Toner y McCauley, han criticado el liderazgo de Altman y han advertido que las salidas de Sutskever y otros miembros del equipo de seguridad son preocupantes para el experimento de autogobierno de OpenAI.

El nuevo comité de seguridad estará compuesto por tres miembros del consejo y seis empleados, incluyendo a Schulman y Altman. OpenAI también consultará a expertos externos, como Rob Joyce y John Carlin, para abordar las preocupaciones de seguridad.

En conclusión, OpenAI ha establecido un comité de seguridad para evaluar la seguridad de sus modelos de IA. Esta medida se produce después de las críticas y la disolución del equipo interno de la empresa. OpenAI continuará su trabajo de investigación bajo la dirección de John Schulman y consultará a expertos externos para abordar las preocupaciones de seguridad.

Cita del autor del sitio web: “OpenAI está comprometida con la seguridad y está tomando medidas para abordar las preocupaciones planteadas por los exempleados. Nuestro nuevo comité de seguridad nos ayudará a evaluar y mejorar nuestros modelos de IA”.

También le puede gustar

Más del autor

+ There are no comments

Add yours