Internet

Mujeres en IA: Urvashi Aneja está investigando el impacto social de la IA en India

Para dar a las mujeres académicas centradas en la IA y a otros el reconocimiento que se merecen, TechCrunch está lanzando una serie de entrevistas centradas en mujeres destacadas que han contribuido a la revolución de la IA. Publicaremos varios artículos a lo largo del año a medida que continúa el auge de la IA, destacando trabajos clave que a menudo pasan desapercibidos. Lee más perfiles

Urvashi Aneja es la directora fundadora de Digital Futures Lab, un esfuerzo de investigación interdisciplinario que busca examinar la interacción entre la tecnología y la sociedad en el Sur Global. También es becaria asociada del programa de Asia Pacífico en Chatham House, un instituto independiente de políticas con sede en Londres.

La investigación actual de Aneja se centra en el impacto social de los sistemas de toma de decisiones algorítmicos en India, donde está basada, y en la gobernanza de plataformas. Aneja recientemente escribió un estudio sobre los usos actuales de la IA en India, revisando casos de uso en sectores como la policía y la agricultura.

Preguntas y respuestas

En resumen, ¿cómo empezaste en la IA? ¿Qué te atrajo al campo?

Comencé mi carrera en investigación y compromiso político en el sector humanitario. Durante varios años, estudié el uso de tecnologías digitales en crisis prolongadas en contextos de bajos recursos. Rápidamente aprendí que hay una línea muy fina entre la innovación y la experimentación, especialmente cuando se trata de poblaciones vulnerables. Los aprendizajes de esta experiencia me hicieron preocuparme profundamente por las narrativas tecno-solucionistas en torno al potencial de las tecnologías digitales, especialmente la IA. Al mismo tiempo, India había lanzado su misión Digital India y su Estrategia Nacional para la IA. Me preocuparon las narrativas dominantes que veían la IA como una bala de plata para los complejos problemas socioeconómicos de India, y la completa falta de discurso crítico sobre el tema.

¿De qué trabajo estás más orgullosa (en el campo de la IA)?

Estoy orgullosa de haber llamado la atención sobre la economía política de la producción de IA, así como las implicaciones más amplias para la justicia social, las relaciones laborales y la sostenibilidad ambiental. Muy a menudo, las narrativas sobre la IA se centran en los beneficios de aplicaciones específicas, y en el mejor de los casos, en los beneficios y riesgos de esa aplicación. Pero esto oculta el problema de raíz: un enfoque orientado al producto oculta los impactos estructurales más amplios, como la contribución de la IA a la injusticia epistémica, la descalificación del trabajo y la perpetuación del poder irresponsable en el mundo en desarrollo. También estoy orgullosa de haber podido traducir estas preocupaciones en políticas y regulaciones concretas, ya sea diseñando pautas de adquisición para el uso de IA en el sector público o aportando pruebas en procedimientos legales contra empresas de tecnología en el Sur Global.

¿Cómo navegas por los desafíos de la industria tecnológica dominada por hombres y, por extensión, la industria de IA dominada por hombres?

Haciendo que mi trabajo hable por sí mismo. Y preguntando constantemente: ¿por qué?

¿Qué consejo darías a las mujeres que buscan ingresar al campo de la IA?

Desarrolla tu conocimiento y experiencia. Asegúrate de que tu comprensión técnica de los problemas sea sólida, pero no te enfoques estrechamente solo en la IA. En cambio, estudia ampliamente para que puedas establecer conexiones entre campos y disciplinas. No hay suficiente gente que entienda la IA como un sistema socio-técnico que es producto de la historia y la cultura.

¿Cuáles son algunos de los problemas más urgentes que enfrenta la IA a medida que evoluciona?

Creo que el problema más urgente es la concentración de poder en un puñado de empresas tecnológicas. Si bien esto no es nuevo, el problema se agrava con nuevos desarrollos en grandes modelos de lenguaje y IA generativa. Muchas de estas empresas ahora están avivando temores en torno a los riesgos existenciales de la IA. No solo es esto una distracción de los daños existentes, sino que también posiciona a estas empresas como necesarias para abordar los daños relacionados con la IA. De muchas maneras, estamos perdiendo parte del impulso del "tech-lash" que surgió después del episodio de Cambridge Analytica. En lugares como India, también me preocupa que se esté posicionando a la IA como necesaria para el desarrollo socioeconómico, presentando una oportunidad para superar desafíos persistentes. No solo esto exagera el potencial de la IA, sino que también ignora el hecho de que no es posible superar el desarrollo institucional necesario para desarrollar salvaguardias. Otro problema del que no estamos tomando suficientemente en serio es el impacto ambiental de la IA; la trayectoria actual probablemente no sea sostenible. En el ecosistema actual, es poco probable que aquellos más vulnerables a los impactos del cambio climático sean los beneficiarios de la innovación de la IA.

¿Qué problemas deben tener en cuenta los usuarios de IA?

Los usuarios deben ser conscientes de que la IA no es magia, ni se acerca a la inteligencia humana. Es una forma de estadísticas computacionales que tiene muchos usos beneficiosos, pero en última instancia solo es una suposición probabilística basada en patrones históricos o previos. Estoy seguro de que hay varios otros problemas de los que los usuarios también deben ser conscientes, pero quiero advertir que debemos ser cautelosos con los intentos de trasladar la responsabilidad aguas abajo, hacia los usuarios. Vemos esto más recientemente con el uso de herramientas de IA generativa en contextos de bajos recursos en el mundo en desarrollo: en lugar de ser cautelosos con estas tecnologías experimentales e poco fiables, el enfoque a menudo se centra en cómo los usuarios finales, como agricultores o trabajadores de salud de primera línea, necesitan mejorar sus habilidades.

¿Cuál es la mejor manera de construir IA de manera responsable?

Esto debe comenzar por evaluar la necesidad de IA en primer lugar. ¿Hay un problema que la IA pueda resolver de manera única o son posibles otros medios? Y si vamos a construir IA, ¿es necesario un modelo complejo y de caja negra, o podría servir igualmente un modelo basado en lógica más simple? También debemos recentrar el conocimiento del dominio en la construcción de IA. En la obsesión por los grandes datos, hemos sacrificado la teoría; necesitamos construir una teoría del cambio basada en el conocimiento del dominio, y esta debería ser la base de los modelos que estamos construyendo, no solo los grandes datos por sí solos. Esto, por supuesto, se suma a cuestiones clave como la participación, equipos inclusivos, derechos laborales, y así sucesivamente.

¿Cómo pueden los inversores presionar por una IA responsable de manera más efectiva?

Los inversores deben considerar todo el ciclo de vida de la producción de IA, no solo los resultados u resultados de las aplicaciones de IA. Esto requeriría examinar una serie de problemas, como si el trabajo está valorado de manera justa, los impactos ambientales, el modelo de negocio de la empresa (¿está basado en la vigilancia comercial?), y las medidas de responsabilidad interna dentro de la empresa. Los inversores también deben pedir una evidencia mejor y más rigurosa sobre los supuestos beneficios de la IA.

Related Articles

Back to top button