🎧 133. Cecilia Danesi — El dilema de la inteligencia artificial | Beneficios vs Amenazas | El imperio de los algoritmos
Si bien los beneficios de la Inteligencia Artificial están a la vista, ¿cuáles son las amenazas no tan evidentes?
¡Hola! Soy Jaime Sotomayor, conductor deI podcast Innovación Sin Barreras. En este programa puedes encontrar conversaciones sobre startups, tecnología e innovación, donde extraemos valiosos aprendizajes directamente de aquellas personas en la cancha. Te invito a compartir y suscribirte a este newsletter para sumarte a una comunidad de 1,500+ personas y enterarte cuando salen los nuevos episodios. Si disfrutas de estas conversaciones, te invito a dejarnos una reseña.
En el episodio de hoy del podcast "Innovación Sin Barreras" tenemos como invitada a Cecilia Danesi, profesora e investigadora en Inteligencia Artificial, Tecnologías Emergentes, Derecho, Diversidad y Género. Cecilia abrió la primera asignatura de la Facultad de Derecho de la Universidad de Buenos Aires en Inteligencia Artificial. Además, ha publicado el libro “El imperio de los algoritmos” que deja al desnudo las consecuencias del nuevo imperio de la inteligencia artificial evidenciando cómo impacta en nuestros Derechos Humanos.
En este episodio hemos conversado sobre los tres ejes centrales del libro de Cecilia: La perspectiva de género, la reivindicación de la identidad iberoamericana y el humanismo tecnológico. Además, reflexionamos sobre el impacto que tienen en nuestras vidas los algoritmos, si es que discriminan y si es que existe la ética de la inteligencia artificial.
¿Te gusta mi contenido y deseas que cree más?
Puedes ayudarme de 3 maneras:
Califica con ⭐⭐⭐⭐⭐ el podcast Innovación Sin Barreras y déjanos una reseña en https://ratethispodcast.com/innovacion
Ayúdame dándole like a este blog post, dejando un comentario y compartiéndolo con más personas 🙏
Escríbeme a hola@jaimesotomayor.com y cuéntame qué te han parecido los temas e invitados y cómo este programa te está ayudando en tu trabajo o estudio.
Enlaces de interés
El dilema de la inteligencia artificial | Cecilia Celeste Danesi | TEDxComodoroRivadavia
📚 Libros Recomendados:
Documentales Recomendados:
Temas del episodio
Tres ejes centrales del libro “El imperio de los algoritmos”: Perspectiva de género, reivindicación de la identidad iberoamericana y humanismo tecnológico (03:21)
¿Somos gobernados por algoritmos? (07:20)
Posiciones sobre las regulaciones sobre AI y algoritmos (12:40)
Riesgos en ChatGPT y en inteligencia artificial a nivel general (21:35)
Los estereotipos y sesgos en inteligencia artificial: responsabilidades, cómo se comportan y cómo abordarlos (25:00)
Recomendaciones de contenido (36:57)
La pregunta de la máquina del tiempo (38:20)
Lo más destacado
Todo empieza por querer hacer algo realmente diferente (02:05)
“Hice un máster y tenía que elegir un tema de tesis, quería un tema innovador, raro, disruptivo, novedoso, que no haya nada escrito… En 2015, con un profesor que justo había ido a Bruselas, a una reunión en la Unión Europea, surgió el tema de inteligencia artificial. Así que ahí nació lo que fue la idea de la inteligencia artificial, que empezó desde un nicho, de un mundito en el derecho, que era la responsabilidad civil por el uso de inteligencia artificial. Luego me empecé a expandir a otras áreas del derecho, porque me di cuenta que era transversal y que afectaba a todas las áreas del derecho. Y luego dije, no, esto tiene que ser un tema de divulgación, de concientización, porque tiene un impacto social enorme. Entonces ahí empecé a abocarme a la divulgación y a salir de la zona netamente jurídica y a trabajar con otras áreas, con otros sectores, con otras edades, con otros grupos, etcétera. El resultado de todo eso fue el libro “El Imperio de los Algoritmos”.”
Los tres ejes centrales del libro “El imperio de los algoritmos” en corto (04:21)
“Solo el 4% de mujeres ocupan puestos vinculados con desarrollos de IA. Y eso tiene un impacto directo porque implica un refuerzo que estos sistemas de IA hacen en las brechas de género existentes. Eso pasa, así como pasa con el género, pasa con cualquier otra diversidad. Entonces esos mismos problemas sociales que nosotros tenemos de falta de representatividad, de vulneración de ciertos grupos, de marginar otros grupos, se traduce en los sistemas de IA con el peligro enorme que después los sistemas de inteligencia artificial repliquen y amplifiquen esas brechas…
Todas las investigaciones, papers científicos y libros de divulgación, todos provenían de otras latitudes, eran todos traducciones del inglés o de otras lenguas, escritos por personas también de otras latitudes entonces yo decía, ¿por qué esto no está estudiado desde nuestra perspectiva, desde nuestra mirada latinoamericana, desde nuestra identidad, desde nuestra tradición, desde nuestra cultura? Entonces es la idea de reivindicar nuestra identidad en el desarrollo y en la construcción de la tecnología justamente para que nuestra cultura esté representada en el desarrollo tecnológico y puntualmente en la IA…
Y el humanismo tecnológico, poner a las personas como centro de la tecnología, o sea, la idea del humanismo tecnológico es, no es la tecnología reemplaza a las personas, sino la tecnología y puntualmente la inteligencia artificial es un complemento para los humanos, para las personas, ¿no? Entonces, ¿Cómo podemos lograr eso? Bueno, con una IA ética, inclusiva. Entonces ese es un poco el objetivo del libro. Primero, concientizar, con ejemplos claros, y después decir, bueno, ¿qué es lo que podemos hacer para tener esta inteligencia artificial ética inclusiva? Entonces ahí doy como tips, claves o ideas para intentar conseguirlo”.
Si somos gobernados por algoritmos, ¿tenemos que interpretarlo como algo malo? (11:23)
“El primer problema es que no sabemos si es bueno o malo, porque no sabemos cómo funciona, no hay una obligación de transparencia de estas empresas respecto a tener que explicarnos dónde hay algoritmos y cómo funcionan. Entonces, el primer problema que tenemos para resolver es exigir que nos digan cuándo se utilizan algoritmos, cómo funcionan, con qué fines, qué variables tienen. Eso es algo que se está trabajando en muchas legislaciones. Yo ahora estoy trabajando en un libro sobre auditorías algorítmicas, que vendría a ser una solución para estas cuestiones que planteo. Y el primer paso para auditar un algoritmo y para conocer cómo funciona es la transparencia y la explicabilidad. Es decir, si yo quiero saber si algo es bueno o es malo, tengo que conocerlo… la legislación va camino a esto lentamente”.
AI y los algoritmos deberían pasar por aprobaciones regulatorias (13:48)
“A nadie se le ocurre que aparezca un medicamento de venta pública y primero no haya sido examinado o evaluado por un organismo evaluador de la administración pública. Esto con los algoritmos genera más resistencia. ¿Por qué? Primero porque siempre que se crea una regulación nueva, y que pone reglas del juego en un mercado que es por el momento absolutamente libre, genera rechazo. Porque obviamente esas empresas o áreas van a tener que invertir dinero en abogados que sepan de esa materia, auditores, especialistas, etc. Entonces eso genera, sí o sí, tiempo y plata. Pero lamentablemente estos algoritmos forman parte de nuestra vida de una manera sideral y en cuestiones súper delicadas y súper esenciales. Es por eso que es tan importante como los fármacos, como los medicamentos que metemos en nuestro cuerpo que tienen que estar previamente autorizados o evaluados, bueno, de la misma manera que lo tiene que hacer un algoritmo. No cualquier algoritmo, sino aquellos algoritmos de alto riesgo, es decir, aquellos que tienen más incidencia en la vida de las personas”.
Necesitamos actores interdisciplinarios para abordar y entender AI (20:26)
“Hay un rechazo recíproco de decir, los abogados no quieren que los tecnólogos se metan en su área y los tecnólogos no quieren que los abogados se metan en... No, ni siquiera los abogados, las ciencias sociales. Hoy en día ese concepto de las ciencias y las disciplinas como compartimentos estancos y aislados va totalmente en contra de la realidad social, donde todo es transversal, todo es interdisciplinario. Hoy en día en las redes sociales no es que es una red para conocer amigos, no, compras, vendés, te enamoras, casás, podés cometer un daño, hacer una estafa y tres millones de cosas más. Más interdisciplinario que eso no hay, entonces digo, bueno, es un deber que tenemos todos de... empaparrnos y dialogar con otras disciplinas, justamente para evitar que hacer legislaciones que después lo único que hagan es frenar de innovación y perjudicarnos”.
Cuidemos de convertirnos en autómatas por la IA (25:56)
“Y el no convertirnos en este copy-paste de la IA no es simplemente, mira, yo lo leo, sé que lo hice una IA, pero lo copio... No, es tener cuidado porque muchas veces, más que nada en las redes sociales, estos algoritmos nos influyen para tomar ciertas decisiones. como por ejemplo compró un producto o una cosa así y no nos damos cuenta porque es super como está estudiado, es como las máquinas del casino, es la misma técnica por así decirlo que te lleva a tomar una decisión o que te lleva a tener una determinada conducta”.
¿La IA puede discriminar? (30:55)
“Cecilia: Si yo tengo una foto de una mujer en bikini con un cuerpo hegemónico y todos le ponemos me gusta, que son las fotos más likeadas, el algoritmo lo que aprende es que esa imagen, ese prototipo... es el que la gente quiere ver, entonces va a reproducir y va a mostrar más eso. Entonces, todas esas interacciones que no son ni más ni menos que nuestro reflejo social, lo que nosotros somos como sociedad, y lo que también pasa en la vía pública, es decir, vos caminas por la vía pública y ves que a una mujer atractiva la miran y yo he visto a una mujer que es gorda, le gritan gorda. Bueno, ese mismo acto reprochable se traslada en las redes sociales, ¿me entendés? Entonces, ¿es culpa del algoritmo? Sí y no, porque no es que el algoritmo tiene una subjetividad y que le cae mal
Jaime: Claro, no tiene conciencia el algoritmo, o sea, no es que lo está...
Cecilia: No tiene conciencia, pero sí está aprendiendo lo que hacemos nosotros. Entonces, de alguna manera eso lo tenemos que filtrar, corregir, rever o trabajar al respecto”.
Ya existen evaluaciones de riesgo de algoritmos (33:54)
“Ahora la Unión Europea con esta Digital Services Act, lo que hace es que para las plataformas digitales de muy gran tamaño, tienen que hacer evaluaciones de riesgo. Es decir, los algoritmos de los motores de búsqueda de Google, por ejemplo, tienen un impacto sideral en lo que la persona ve, en lo que la persona consume, en lo que la persona piensa y en todo. Porque nosotros todos, primero vamos a Google, ¿no? Entonces, esto de alguna manera se tiene que evaluar. ¿cómo? Ahí es donde tiene que estar el diálogo interdisciplinario, sector público, sector privado, es decir, bueno, evaluamos lo de la mejor manera. Obviamente dentro de las posibilidades, porque como decís vos, no puedes usar con cada caso concreto una persona atrás a revisarlo. No, pero sí puedes hacer evaluaciones generales de cómo funciona el algoritmo”.
¿Te compartieron este newsletter? Suscríbete gratis 🙌
Recibirás boletines como este con artículos e información referente a temas de innovación, nuevas tecnologías, crypto, emprendimiento y startups.