Tech

Investigadores del MIT lanzan un repositorio de riesgos de IA

\n

¿Qué riesgos específicos debería considerar una persona, empresa o gobierno al usar un sistema de IA o al crear reglas para regular su uso? No es una pregunta fácil de responder. Si se trata de una IA con control sobre infraestructuras críticas, existe el riesgo obvio para la seguridad humana. Pero ¿qué pasa con una IA diseñada para calificar exámenes, clasificar currículums o verificar documentos de viaje en control de inmigración? Cada uno de ellos conlleva sus propios riesgos, categoricamente diferentes, aunque no menos graves.

\n

Al redactar leyes para regular la IA, como la Ley de IA de la UE o la SB 1047 de California, los responsables políticos han tenido dificultades para llegar a un consenso sobre qué riesgos deberían cubrir las leyes. Para ayudar a proporcionar una guía para ellos, así como para los interesados en la industria y la academia de la IA, los investigadores del MIT han desarrollado lo que ellos llaman un "repositorio de riesgos de IA" - una especie de base de datos de riesgos de IA.

\n

\"Se trata de un intento de curar y analizar rigurosamente los riesgos de IA en una base de datos de riesgos pública, completa, extensible y categorizada a la que cualquiera pueda copiar y usar, y que se mantendrá actualizada con el tiempo\", dijo Peter Slattery, investigador del grupo FutureTech del MIT y líder del proyecto del repositorio de riesgos de IA, a TechCrunch. \"Lo creamos ahora porque lo necesitábamos para nuestro proyecto, y nos dimos cuenta de que muchos otros también lo necesitaban\".

\n

Slattery dice que el repositorio de riesgos de IA, que incluye más de 700 riesgos de IA agrupados por factores causales (por ejemplo, intencionalidad), dominios (por ejemplo, discriminación) y subdominios (por ejemplo, desinformación y ciberataques), surgió de un deseo de entender las superposiciones y desconexiones en la investigación sobre la seguridad de la IA. Otros marcos de riesgo existen. Pero solo cubren una fracción de los riesgos identificados en el repositorio, dice Slattery, y estas omisiones podrían tener importantes consecuencias para el desarrollo, uso y la elaboración de políticas de IA.

\n

\"Las personas pueden suponer que hay un consenso sobre los riesgos de IA, pero nuestros hallazgos sugieren lo contrario\", agregó Slattery. \"Descubrimos que los marcos promedio mencionaban solo el 34% de los 23 subdominios de riesgo que identificamos, y casi un cuarto cubría menos del 20%. Ningún documento o resumen mencionaba los 23 subdominios de riesgo, y el más completo solo cubría el 70%. Cuando la literatura está tan fragmentada, no deberíamos asumir que todos estamos de acuerdo sobre estos riesgos\".

\n

Para construir el repositorio, los investigadores del MIT trabajaron con colegas de la Universidad de Queensland, el Instituto Future of Life sin fines de lucro, KU Leuven y la startup de IA Harmony Intelligence para examinar bases de datos académicas y recuperar miles de documentos relacionados con evaluaciones de riesgos de IA.

\n

Los investigadores encontraron que los marcos de terceros que examinaron mencionaban ciertos riesgos con más frecuencia que otros. Por ejemplo, más del 70% de los marcos incluían las implicaciones de privacidad y seguridad de la IA, mientras que solo el 44% cubría la desinformación. Y aunque más del 50% discutieron las formas de discriminación y tergiversación que la IA podría perpetuar, solo el 12% hablaba de "contaminación del ecosistema de la información" - es decir, el aumento del volumen de spam generado por la IA.

\n

\"Una lección para investigadores y responsables de políticas, y cualquier persona que trabaje con riesgos, es que esta base de datos podría proporcionar una base sobre la cual construir al realizar un trabajo más específico\", dijo Slattery. \"Antes de esto, personas como nosotros tenían dos opciones. Podían invertir tiempo significativo en revisar la literatura dispersa para desarrollar una visión general completa, o podían utilizar un número limitado de marcos existentes, que podrían pasar por alto riesgos relevantes. Ahora tienen una base de datos más completa, así que esperamos que nuestro repositorio ahorre tiempo y aumente la supervisión\".

\n

¿Pero lo utilizará alguien? Es cierto que la regulación de la IA en todo el mundo hoy en día es, en el mejor de los casos, un conjunto desorganizado: un espectro de enfoques diferentes desunificados en sus objetivos. ¿Habría cambiado algo si hubiera existido un repositorio de riesgos de IA como el del MIT antes? ¿Podría haberlo hecho? Eso es difícil de decir.

\n

Otra pregunta justa es si simplemente estar alineados en los riesgos que plantea la IA es suficiente para impulsar movimientos hacia una regulación competente. Muchas evaluaciones de seguridad para sistemas de IA tienen limitaciones significativas, y una base de datos de riesgos no necesariamente resolverá ese problema.

\n

Los investigadores del MIT planean intentarlo, sin embargo. Neil Thompson, jefe del laboratorio FutureTech, le dijo a TechCrunch que el grupo planea en la siguiente fase de investigación usar el repositorio para evaluar qué tan bien se están abordando diferentes riesgos de IA.

\n

\"Nuestro repositorio nos ayudará en el próximo paso de nuestra investigación, cuando estaremos evaluando qué tan bien se están abordando diferentes riesgos\", dijo Thompson. \"Planeamos utilizar esto para identificar deficiencias en las respuestas organizativas. Por ejemplo, si todos se centran en un tipo de riesgo mientras pasan por alto otros de igual importancia, eso es algo que deberíamos notar y abordar\".

Related Articles

Back to top button