Business

OpenAI forma un comité de seguridad al comenzar a entrenar el último modelo de inteligencia artificial

OpenAI dice que está estableciendo un nuevo comité de seguridad y ha comenzado a entrenar un nuevo modelo de inteligencia artificial para reemplazar el sistema GPT-4 que sustenta su chatbot ChatGPT.

La startup de San Francisco dijo en una publicación de blog el martes que el comité asesorará a la junta directiva en 'decisiones críticas de seguridad' para sus proyectos y operaciones.

El comité de seguridad llega en medio de un debate en torno a la seguridad de la IA en la empresa, que se vio impulsada a la luz pública después de que un investigador, Jan Leike, renunciara y criticara a OpenAI por permitir que la seguridad 'pasara a un segundo plano frente a productos llamativos'.

OpenAI dijo que ha 'comenzado recientemente a entrenar su próximo modelo fronterizo' y que sus modelos de IA lideran la industria en capacidad y seguridad, aunque no mencionó la controversia. 'Acogemos con beneplácito un debate sólido en este momento importante', dijo la empresa.

Los modelos de IA son sistemas de predicción que se entrenan en vastos conjuntos de datos para generar texto, imágenes y conversaciones humanas a pedido. Los modelos fronterizos son los sistemas de IA más potentes y de vanguardia.

Los miembros del comité de seguridad incluyen al CEO de OpenAI, Sam Altman, y al Presidente Bret Taylor, junto con otros dos miembros de la junta, Adam D'Angelo, CEO de Quora, y Nicole Seligman, ex consejero general de Sony. OpenAI dijo que cuatro expertos técnicos y de políticas de la empresa también son miembros.

La primera tarea del comité será evaluar y desarrollar aún más los procesos y salvaguardias de OpenAI y hacer sus recomendaciones a la junta en 90 días. La empresa dijo que luego publicará públicamente las recomendaciones que adopte 'de una manera consistente con la seguridad y la protección'.

Related Articles

Back to top button