Internet

Mujeres en IA: Ewa Luger explora cómo la IA afecta a la cultura, viceversa

Para dar a las académicas y a otras mujeres centradas en la IA su merecido y largo tiempo en el foco de atención, TechCrunch ha estado publicando una serie de entrevistas enfocadas en mujeres notables que han contribuido a la revolución de la IA. Estamos publicando estas piezas a lo largo del año a medida que el auge de la IA continúa, destacando trabajos clave que a menudo pasan desapercibidos. Lee más perfiles aquí.

En el foco de atención esta tarde: Ewa Luger es co-directora del Instituto de Diseño Informático y co-directora del programa Bridging Responsible AI Divides (BRAID), respaldado por el Consejo de Investigación de Artes y Humanidades (AHRC). Trabaja estrechamente con los responsables de políticas y la industria, y es miembro del colegio de expertos del Departamento de Cultura, Medios y Deporte del Reino Unido (DCMS), un grupo de expertos que proporcionan asesoramiento científico y técnico al DCMS.

La investigación de Luger explora cuestiones sociales, éticas e interaccionales en el contexto de sistemas basados en datos, incluidos los sistemas de IA, con un interés particular en el diseño, la distribución de poder, esferas de exclusión y el consentimiento del usuario. Anteriormente, fue becaria en el Instituto Alan Turing, trabajó como investigadora en Microsoft y fue becaria en el Corpus Christi College de la Universidad de Cambridge.

Q&A

De manera resumida, ¿cómo comenzaste en el campo de la IA y qué te atrajo de él?

.

Después de mi doctorado, me mudé a Microsoft Research, donde trabajé en el grupo de experiencia de usuario y diseño en el laboratorio de Cambridge (Reino Unido). La IA era un enfoque central allí, por lo que mi trabajo se desarrolló naturalmente en esa área y se expandió a cuestiones relacionadas con la IA centrada en el ser humano (por ejemplo, asistentes de voz inteligentes).

Cuando me mudé a la Universidad de Edimburgo, fue debido al deseo de explorar cuestiones de inteligibilidad algorítmica, que, en 2016, era un área de nicho. Me he encontrado en el campo de la IA responsable y actualmente co-lidero un programa nacional sobre el tema, financiado por el AHRC.

¿De qué trabajo en el campo de la IA te sientes más orgullosa?

Mi trabajo más citado es un artículo sobre la experiencia de usuario de los asistentes de voz (2016). Fue el primer estudio de su tipo y todavía es muy citado. Pero el trabajo del que personalmente me siento más orgullosa es continuo. BRAID es un programa que co-lidero, diseñado en colaboración con una filósofa y una ética. Es un esfuerzo realmente multidisciplinario diseñado para apoyar el desarrollo de un ecosistema de IA responsable en el Reino Unido.

En asociación con el Instituto Ada Lovelace y la BBC, tiene como objetivo conectar el conocimiento de las artes y las humanidades con la política, la regulación, la industria y el sector voluntario. A menudo pasamos por alto las artes y humanidades cuando se trata de IA, lo que siempre me ha parecido extraño. Cuando llegó la COVID-19, el valor de las industrias creativas fue tan profundo; sabemos que aprender de la historia es fundamental para evitar cometer los mismos errores, y la filosofía es la raíz de los marcos éticos que nos han mantenido seguros e informados dentro de la ciencia médica durante muchos años. Sistemas como Midjourney se basan en contenido de artistas y diseñadores como datos de entrenamiento, y sin embargo, de alguna manera estas disciplinas y profesionales tienen muy poca voz en el campo. Queremos cambiar eso.

Prácticamente, he trabajado con socios de la industria como Microsoft y la BBC para co-producir desafíos de IA responsable, y hemos trabajado juntos para encontrar académicos que puedan responder a esos desafíos. Hasta ahora, BRAID ha financiado 27 proyectos, algunos de los cuales han sido becas individuales, y pronto lanzaremos una nueva convocatoria.

Estamos diseñando un curso en línea gratuito para las partes interesadas que buscan interactuar con la IA, estableciendo un foro donde esperamos involucrar a una amplia representación de la población, así como a otras partes interesadas sectoriales para apoyar la gobernanza del trabajo, y ayudando a desmitificar algo de la información engañosa y exagerada que rodea a la IA en este momento.

Sé que ese tipo de narrativa es lo que impulsa la inversión actual en torno a la IA, pero también sirve para cultivar miedo y confusión entre aquellas personas que son más propensas a sufrir daños a largo plazo. BRAID se extenderá hasta finales de 2028, y en la próxima fase abordaremos la alfabetización en IA, los espacios de resistencia y los mecanismos de impugnación y recurso. Es un (relativamente) gran programa con un presupuesto de £15.9 millones durante seis años, financiado por el AHRC.

¿Cómo navegas por los desafíos de la industria tecnológica dominada por hombres y, por extensión, la industria de IA dominada por hombres?

Esa es una pregunta interesante. Empezaría diciendo que estos problemas no se encuentran únicamente en la industria, como a menudo se percibe. El entorno académico tiene desafíos muy similares en cuanto a la igualdad de género. Actualmente soy co-directora de un instituto, Design Informatics, que reúne a la escuela de diseño y la escuela de informática, y diría que hay un mejor equilibrio tanto en términos de género como en lo que respecta a los problemas culturales que limitan a las mujeres a alcanzar su máximo potencial profesional en el lugar de trabajo.

Pero durante mi doctorado, estuve en un laboratorio dominado por hombres y, en menor medida, cuando trabajé en la industria. Dejando de lado los efectos obvios de las pausas profesionales y el cuidado, mi experiencia ha sido de dos dinámicas entrelazadas. En primer lugar, se exigen estándares y expectativas mucho más altos a las mujeres, por ejemplo, ser amables, positivas, amables, solidarias, jugadores de equipo, y así sucesivamente. En segundo lugar, a menudo somos reacias a postularnos para oportunidades que hombres menos calificados buscarían con bastante agresividad. Así que he tenido que empujarme bastante fuera de mi zona de confort en muchas ocasiones.

Otra cosa que he necesitado hacer es establecer límites muy firmes y aprender cuándo decir que no. A menudo se entrena a las mujeres para ser (y ser vistas como) personas complacientes. Podemos ser demasiado fácilmente vistos como la persona a la que recurrir para las tareas que serían menos atractivas para tus colegas masculinos, incluso hasta el punto de ser consideradas la persona que hace el té o toma notas en cualquier reunión, independientemente del estatus profesional. Y solo realmente diciendo que no, y asegurándote de que eres consciente de tu valor, logras ser vista de manera diferente. Es demasiado generalizar diciendo que esto es cierto para todas las mujeres, pero ciertamente ha sido mi experiencia. Debo decir que tuve una gerente mujer mientras estaba en la industria, y fue maravillosa, por lo que la mayor parte del sexismo que he experimentado ha sido dentro del mundo académico.

En general, los problemas son estructurales y culturales, por lo que navegar por ellos requiere esfuerzo, primero en hacerlos visibles y segundo en abordarlos activamente. No hay soluciones simples, y cualquier navegación coloca aún más carga emocional en las mujeres en tecnología.

¿Qué consejo darías a las mujeres que buscan ingresar al campo de la IA?

Mi consejo siempre ha sido ir por las oportunidades que te permitan avanzar, incluso si no te sientes que eres el 100% la elección correcta. Déjalos rechazar en lugar de cerrar oportunidades tú misma. La investigación muestra que los hombres van por roles que creen que podrían hacer, pero las mujeres solo van por roles que sienten que ya pueden hacer competente. Actualmente, también hay una tendencia hacia una mayor conciencia de género en el proceso de contratación y entre los financiadores, aunque ejemplos recientes muestran lo lejos que tenemos que llegar.

Si miras los centros de IA de Investigación e Innovación del Reino Unido, una reciente inversión de alto perfil de varios millones de libras, todos los nueve centros de investigación de IA anunciaron recientemente están dirigidos por hombres. Realmente deberíamos estar haciendo un mejor trabajo para garantizar la representación de género.

¿Cuáles son algunos de los problemas más apremiantes que enfrenta la IA a medida que evoluciona?

Dado mi experiencia, quizás no sorprenda que diga que los problemas más apremiantes que enfrenta la IA son aquellos relacionados con los daños inmediatos y a largo plazo que podrían ocurrir si no tenemos cuidado en el diseño, la gobernanza y el uso de los sistemas de IA.

El problema más apremiante, y uno que ha sido muy poco investigado, es el impacto ambiental de los modelos a gran escala. Podríamos optar en algún momento por aceptar esos impactos si los beneficios de la aplicación superan los riesgos. Pero en este momento, estamos viendo un uso generalizado de sistemas como Midjourney ejecutados simplemente por diversión, con los usuarios en su mayoría, si no completamente, inconscientes del impacto cada vez que ejecutan una consulta.

Otro problema apremiante es cómo conciliar la rapidez de las innovaciones en IA y la capacidad del clima regulatorio para mantenerse al día. No es un problema nuevo, pero la regulación es el mejor instrumento que tenemos para garantizar que los sistemas de IA se desarrollen y desplieguen de manera responsable.

Es muy fácil asumir que lo que se ha llamado la democratización de la IA —por esto me refiero a sistemas como ChatGPT que están tan fácilmente disponibles para cualquiera— es un desarrollo positivo. Sin embargo, ya estamos viendo los efectos del contenido generado en las industrias creativas y en los practicantes creativos, especialmente en lo que respecta al copyright y la atribución. El periodismo y los productores de noticias también están luchando para asegurarse de que su contenido y marcas no se vean afectados. Este último punto tiene enormes implicaciones para nuestros sistemas democráticos, especialmente a medida que entramos en ciclos electorales clave. Los efectos podrían cambiar literalmente el mundo desde una perspectiva geopolítica. Tampoco sería una lista de problemas sin al menos un guiño al sesgo.

¿Cuáles son algunos problemas de los que los usuarios de IA deberían ser conscientes?

No estoy seguro si esto se refiere a las empresas que usan IA o a los ciudadanos comunes, pero supongo que se refiere a estos últimos. Creo que el problema principal aquí es la confianza. Estoy pensando aquí en muchos estudiantes que ahora utilizan modelos de lenguaje grandes para generar trabajos académicos. Dejando de lado los problemas morales, los modelos aún no son lo suficientemente buenos para eso. Las citas a menudo son incorrectas o están fuera de contexto, y se pierde el matiz de algunos artículos académicos.

Pero esto habla de un punto más amplio: aún no puedes confiar completamente en el texto generado y solo debes usar esos sistemas cuando el contexto o el resultado tenga un riesgo bajo. El segundo problema obvio es la verdad y la autenticidad. A medida que los modelos se vuelven cada vez más sofisticados, será cada vez más difícil saber con certeza si es humano o generado por la máquina. Todavía no hemos desarrollado, como sociedad, las alfabetizaciones necesarias para hacer juicios razonados sobre el contenido en un entorno mediático rico en IA. Las viejas reglas de alfabetización mediática se aplican temporalmente: verifica la fuente.

Otro problema es que la IA no es inteligencia humana, por lo que los modelos no son perfectos, pueden ser engañados o corrompidos con relativa facilidad si alguien tiene esa intención.

¿Cuál es la mejor manera de construir IA de manera responsable?

Los mejores instrumentos que tenemos son evaluaciones de impacto algorítmico y cumplimiento regulatorio, pero idealmente estaríamos buscando procesos que busquen activamente hacer el bien en lugar de simplemente buscar minimizar el riesgo.

Volviendo a lo básico, el primer paso obvio es abordar la composición de los diseñadores —asegurando que la IA, la informática y la ciencia de la computación como disciplinas atraigan a mujeres, personas de color y representación de otras culturas. Obviamente, no es una solución rápida, pero claramente habríamos abordado el problema del sesgo antes si fuera más heterogéneo. Eso me lleva al problema del corpus de datos, y garantizando que sea adecuado y se hagan esfuerzos para des-biasarlo adecuadamente.

Luego viene la necesidad de entrenar a los arquitectos de sistemas para que sean conscientes de cuestiones morales y socio-técnicas —dando el mismo peso a estas que a las disciplinas primarias. Luego debemos darles a los arquitectos de sistemas más tiempo y agencia para considerar y solucionar posibles problemas. Luego llegamos a la cuestión de la gobernanza y la co-diseño, donde las partes interesadas deberían participar en la gobernanza y el diseño conceptual del sistema. Y finalmente, necesitamos probar exhaustivamente los sistemas antes de que lleguen a los sujetos humanos.

Lo ideal sería también asegurar que haya mecanismos para optar por salir, impugnación y recurso —aunque gran parte de esto está cubierto por las regulaciones emergentes. Parece obvio, pero también agregaría que debes estar preparado para abandonar un proyecto que esté destinado a fracasar en cualquier medida de responsabilidad. A menudo hay algo de la falacia de los costos hundidos en juego aquí, pero si un proyecto no se desarrolla como esperas, aumentar tu tolerancia al riesgo en lugar de matarlo puede resultar en la muerte prematura de un producto.

El acto de IA adoptado recientemente por la Unión Europea cubre gran parte de esto, por supuesto.

¿Cómo pueden los inversores presionar mejor por una IA responsable?

Dando un paso atrás aquí, generalmente se entiende y acepta que todo el modelo que sustenta Internet es la monetización de los datos de los usuarios. De la misma manera, gran parte, o incluso toda, la innovación en IA está impulsada por la ganancia de capital. El desarrollo de IA en particular es un negocio hambriento de recursos, y la carrera por ser el primero en el mercado a menudo se ha descrito como una carrera armamentista. Entonces, la responsabilidad como valor siempre está en competencia con esos otros valores.

Eso no quiere decir que a las empresas no les importe, y también ha habido muchos esfuerzos realizados por varios éticos de la IA para redefinir la responsabilidad como una forma de realmente distinguirse en el campo. Pero esto parece ser un escenario improbable a menos que seas un gobierno u otro servicio público. Está claro que ser el primero en el mercado siempre va a ser negociado contra la eliminación completa y comprensiva de posibles daños.

Pero volviendo al término responsabilidad. A mi manera de ver, ser responsable es lo menos que podemos hacer. Cuando le decimos a nuestros hijos que confiamos en ellos para que sean responsables, lo que queremos decir es que no hagan nada ilegal, vergonzoso o insano. Es literalmente el sótano cuando se trata de comportarse como un ser humano funcional en el mundo. Por el contrario, cuando se aplica a las empresas, se convierte en algún tipo de estándar inalcanzable. Tienes que preguntarte, ¿cómo estamos teniendo esta discusión?

Además, los incentivos para priorizar la responsabilidad son bastante básicos y se relacionan con querer ser una entidad confiable y también no querer que tus usuarios sufran daños dignos de noticia. Digo esto porque muchas personas en el umbral de la pobreza, o aquellos de grupos marginados, caen por debajo del umbral de interés, ya que no tienen el capital económico o social para

Related Articles

Back to top button