Tech

El nuevo consejo de IA de Meta está compuesto enteramente por hombres blancos

Meta anunció el miércoles la creación de un consejo asesor de IA con solo hombres blancos en él. ¿Qué más podríamos esperar? Las mujeres y las personas de color llevan décadas hablando de ser ignoradas y excluidas del mundo de la inteligencia artificial a pesar de estar calificadas y desempeñar un papel clave en la evolución de este espacio. 

Meta no respondió de inmediato a nuestra solicitud de comentario sobre la diversidad del consejo asesor. 

Este nuevo consejo asesor difiere de la junta directiva real de Meta y de su Junta de Supervisión, que es más diversa en cuanto a género y representación racial. Los accionistas no eligieron a este consejo de IA, que tampoco tiene un deber fiduciario. Meta le dijo a Bloomberg que la junta ofrecería 'ideas y recomendaciones sobre avances tecnológicos, innovación y oportunidades de crecimiento estratégico'. Se reuniría 'periódicamente'.

Es significativo que el consejo asesor de IA esté compuesto enteramente por personas de negocios y empresarios, no por éticos ni por ninguna persona con un trasfondo académico o de investigación profunda. Aunque se podría argumentar que los ejecutivos actuales y anteriores de Stripe, Shopify y Microsoft están bien posicionados para supervisar la hoja de ruta de productos de IA de Meta dada la inmensa cantidad de productos que han traído al mercado entre ellos, se ha demostrado una y otra vez que la IA no es como otros productos. Es un negocio arriesgado, y las consecuencias de equivocarse pueden ser de gran alcance, especialmente para los grupos marginados.

Las mujeres en IA que marcan la diferencia

En una entrevista reciente con TechCrunch, Sarah Myers West, directora gerente del AI Now Institute, una organización sin ánimo de lucro que estudia las implicaciones sociales de la IA, dijo que es crucial 'examinar críticamente' las instituciones que producen IA para 'garantizar que se satisfagan las necesidades del público'.

'Esta es una tecnología propensa a errores, y sabemos, según investigaciones independientes, que esos errores no se distribuyen de manera equitativa, perjudican de manera desproporcionada a las comunidades que durante mucho tiempo han soportado la discriminación', dijo. 'Deberíamos establecer un estándar mucho, mucho más alto'.

Las mujeres tienen muchas más probabilidades que los hombres de experimentar el lado oscuro de la IA. Sensity AI encontró en 2019 que el 96% de los videos deepfake de IA en línea eran videos no consensuales, sexualmente explícitos. La IA generativa se ha vuelto mucho más prevalente desde entonces, y las mujeres siguen siendo el objetivo de este comportamiento violatorio.

En un incidente de alto perfil de enero, los deepfakes pornográficos no consensuales de Taylor Swift se volvieron virales en X, con una de las publicaciones más extendidas recibiendo cientos de miles de 'me gusta' y 45 millones de visualizaciones. Plataformas sociales como X históricamente han fallado en proteger a las mujeres de estas circunstancias, pero como Taylor Swift es una de las mujeres más poderosas del mundo, X intervino prohibiendo términos de búsqueda como 'taylor swift ai' y 'taylor swift deepfake'.

Pero si esto te sucede a ti y no eres una sensación pop global, entonces podrías tener mala suerte. Hay numerosos informes de estudiantes de secundaria y preparatoria haciendo deepfakes explícitos de sus compañeros de clase. Aunque esta tecnología ha existido por un tiempo, nunca ha sido más fácil de acceder: no necesitas ser hábil tecnológicamente para descargar aplicaciones que se anuncian específicamente para 'desvestir' fotos de mujeres o intercambiar sus rostros en material pornográfico. De hecho, según un reportaje de Kat Tenbarge de NBC, Facebook e Instagram hospedaron anuncios de una aplicación llamada Perky AI, que se describía a sí misma como una herramienta para hacer imágenes explícitas.

Dos de los anuncios, que supuestamente se escaparon de la detección de Meta hasta que Tenbarge alertó a la empresa sobre el problema, mostraban fotos de las celebridades Sabrina Carpenter y Jenna Ortega con sus cuerpos borrosos, instando a los clientes a hacer que la aplicación les quitara la ropa. Los anuncios usaron una imagen de Ortega cuando ella tenía solo dieciséis años.

El error de permitir que Perky AI publicite no fue un incidente aislado. La Junta de Supervisión de Meta recientemente abrió investigaciones sobre la falla de la empresa para manejar informes de contenido generado por IA sexualmente explícito.

Es imperativo que las voces de las mujeres y personas de color se incluyan en la innovación de productos de inteligencia artificial. Durante mucho tiempo, estos grupos marginados han sido excluidos del desarrollo de tecnologías y estudios cambiantes en el mundo y los resultados han sido desastrosos.

Un ejemplo claro es el hecho de que hasta la década de 1970, las mujeres fueron excluidas de los ensayos clínicos, lo que significa que campos enteros de investigación se desarrollaron sin comprender cómo impactaría a las mujeres. Las personas negras, en particular, ven los impactos de la tecnología construida sin ellos en mente, por ejemplo, los autos autónomos tienen más probabilidades de golpearlos porque sus sensores podrían tener más dificultades para detectar la piel negra, según un estudio de 2019 realizado por el Instituto de Tecnología de Georgia.

Los algoritmos entrenados en datos ya discriminatorios solo regurgitan los mismos prejuicios que los humanos les han enseñado a adoptar. En general, ya vemos sistemas de IA perpetuar y amplificar la discriminación racial en el empleo, la vivienda y la justicia penal. Los asistentes de voz tienen dificultades para entender acentos diversos y a menudo marcan el trabajo de hablantes de inglés no nativos como generados por IA, ya que, como señaló Axios, el inglés es la lengua materna de la IA. Los sistemas de reconocimiento facial marcan a las personas negras como posibles coincidencias con sospechosos criminales con más frecuencia que a las personas blancas.

El desarrollo actual de la IA encarna las mismas estructuras de poder existentes en cuanto a clase, raza, género y eurocentrismo que vemos en otros lugares, y parece que no hay suficientes líderes abordándolo. En lugar de eso, lo refuerzan. Los inversores, fundadores y líderes tecnológicos están tan centrados en moverse rápido y romper cosas que parecen no comprender que la IA generativa, la tecnología de IA de moda en este momento, podría empeorar los problemas, no mejorarlos. Según un informe de McKinsey, la IA podría automatizar aproximadamente la mitad de todos los empleos que no requieren un título universitario de cuatro años y pagan más de $42,000 anualmente, empleos en los que los trabajadores de minorías están sobre representados.

Hay motivos para preocuparse acerca de cómo un equipo de hombres blancos en una de las empresas tecnológicas más prominentes del mundo, participando en esta carrera para salvar al mundo utilizando la IA, alguna vez podría asesorar sobre productos para todas las personas cuando solo se representa a un grupo demográfico estrecho. Se necesitará un esfuerzo masivo para construir tecnología que todos, verdaderamente todos, puedan usar. De hecho, las capas necesarias para construir realmente una IA segura e inclusiva, desde la investigación hasta la comprensión a nivel societal interseccional, son tan intrincadas que es casi obvio que este consejo asesor no ayudará a Meta a hacerlo bien. Al menos donde Meta falla, podría surgir otra startup.

¡Estamos lanzando un boletín de IA! Regístrese aquí para comenzar a recibirlo en su bandeja de entrada el 5 de junio.

Related Articles

Back to top button