Si bien la tecnología detrás de la IA ha traído múltiples beneficios, también genera una serie de problemas y preocupaciones que es necesario abordar.
Uno de los problemas principales que se deben considerar en relación con las IA es hasta qué punto nosotros, como seres humanos, realmente tenemos control sobre lo que la tecnología hace. ¿Somos capaces de decidir en qué aspectos y en qué medida la tecnología modifica nuestra realidad y las condiciones en las que vivimos?
Ya en 1858, Karl Marx planteó una problemática similar en su «Fragmento sobre las máquinas», que forma parte de «Elementos fundamentales para la crítica de la economía política (Grundrisse)», donde reflexionó sobre la reciente revolución industrial. Marx dice:
La máquina en ningún aspecto aparece como medio de trabajo del obrero individual. Su diferencia especifica en modo alguno es, como en el caso del medio de trabajo, la de trasmitir al objeto la actividad del obrero, sino que más bien esta actividad se halla puesta de tal manera que no hace más que transmitir a la materia prima el trabajo o acción de la máquina, [a la] que vigila y preserva de averías. No es como en el caso del instrumento, al que el obrero anima, como a un órgano, con su propia destreza y actividad, y cuyo manejo depende por tanto de la virtuosidad de aquél. Sino que la máquina, dueña en lugar del obrero de la habilidad y la fuerza, es ella misma la virtuosa, posee un alma propia presente en las leyes mecánicas que operan en ella, y así como el obrero consume comestibles, ella consume carbón, aceite, etc. (matières instrumentales) con, vistas a su automovimiento continuo. La actividad del obrero, reducida a una mera abstracción de la actividad, está determinada y regulada en todos los aspectos por el movimiento de la maquinaria, y no a la inversa. La ciencia, que obliga a los miembros inanimados de la máquina -merced a su construcción- a operar como un autómata, conforme, un fin, no existe en la conciencia del obrero, sino que opera a través de la máquina, como poder ajeno, como poder de la máquina misma sobre aquél. (Marx, 2001)
Este fragmento nos invita a reflexionar sobre si realmente utilizamos la tecnología como una herramienta sobre la cual mantenemos control, o si simplemente actuamos como guardianes de su funcionamiento automatizado. Debemos considerar que este funcionamiento viene predefinido por aquellos que crean o programan estas tecnologías.
El filósofo francés Éric Sadin advierte sobre el peligro de la inteligencia artificial. Lo que solía ser una herramienta confiable para ayudar en las acciones y decisiones humanas, ha pasado a convertirse en algo diferente y determinante. Sostiene que la IA no solo limita nuestra capacidad de juicio, sino que también puede reemplazarla. Existe el riesgo de que nos sometamos cada vez más a las decisiones tomadas por programas y algoritmos, dejando de lado el juicio humano. Esta visión se fundamenta en la idea de que la tecnología no es neutral y no depende solo de cómo la utilicemos. Al contrario, Sadin sostiene que las intenciones perversas ya están presentes desde su origen. Según él, estas tecnologías están diseñadas para dirigir la acción humana y debilitar la voluntad del hombre. Como contraparte, propone repensar lo humano, renegando de la asistencia digital individualizada, promoviendo la educación y el espíritu crítico. Destaca que la inteligencia artificial no puede igualar a la inteligencia humana. Todo esto requiere un esfuerzo concertado y la conciencia de respetar la integridad y la dignidad humana. Un verdadero técnico o ingeniero defenderá una técnica e ingeniería humanas, coloridas y frescas, y no se subordinará a ecosistemas laborales monótonos y grisáceos en proceso de robotización. A pesar de todo, aún es posible defender que la IA esté al servicio de los humanos y no al revés, donde los humanos se conviertan en meros satélites, limitados mentalmente, de núcleos robóticos que buscan solo maximizar las ganancias e indicadores de la empresa. (Sadin, 2020)
La bioquímica chilena Komal Dadlani, CEO de la startup tecnológica Lab4U, plantea la necesidad importante de regular estas tecnologías, tomando como ejemplo las armas: no es el arma la que mata, sino las personas que las manipulan. En este caso, la pregunta es cuánto control tienen las personas sobre las máquinas, o si, por el contrario, es el algoritmo el que toma las decisiones. En este sentido, Dadlani destaca que hace aproximadamente 100 años, pocos países tenían ministerios de energía o telecomunicaciones, pero a medida que la tecnología avanza y las industrias se desarrollan, se vuelven necesarias las regulaciones. Por ejemplo, hoy en día Emiratos Árabes cuenta con un Ministerio de Inteligencia Artificial. De esta manera, se enfatiza la importancia del pensamiento crítico y las habilidades para pensar en un mundo donde las preguntas son más relevantes que las respuestas, para contrarrestar los procesos automatizados y desregulados que podrían llevar a un uso pernicioso de las tecnologías (CNN Chile, 2023). Además, es fundamental considerar que la regulación de estas tecnologías no solo implica controlar su uso, sino también fomentar su desarrollo responsable. Esto implica establecer estándares éticos y de seguridad para garantizar que las tecnologías no se utilicen de manera perjudicial o injusta. También es importante promover la educación y conciencia sobre el impacto de estas tecnologías, para que las personas puedan tomar decisiones informadas y participar activamente en su regulación.
El teórico de la comunicación argentino Carlos A. Scolari plantea que la IA es una tecnología disruptiva que transforma los fundamentos de la cultura y el trabajo humano. Hasta ahora, las máquinas han trabajado para nosotros, pero gradualmente nos estamos convirtiendo en los editores de los algoritmos culturales y creativos. (Scolari, 2023)
Este cambio de paradigma podría tener un impacto significativo en nuestra percepción y comprensión del mundo que nos rodea. Los medios de comunicación juegan un papel fundamental en la construcción del ecosistema comunicativo que habitamos, y las IA tienen el potencial de transformar nuestra forma de razonar, crear e interpretar, desafiando conceptos arraigados como el de «autoría» o «capacidad creativa». Esto plantea la necesidad de adoptar una postura aún más crítica y cautelosa frente a lo que se nos presenta como real, autentico o verdadero. Además, este cambio nos invita a reflexionar sobre la importancia de cuestionar y analizar de manera más profunda la información que recibimos, ya que puede haber implicaciones más amplias y sutiles de las que inicialmente percibimos. En este sentido, se hace necesario desarrollar una habilidad de lectura más crítica y una actitud más sospechosa hacia lo que se nos presenta como verdad absoluta.
En la línea de esta misma reflexión, el filósofo norteamericano especialista en ciencias cognitivas, Daniel Dennett plantea:
“El problema más apremiante con las IA no es que vayan a quitarnos nuestros empleos, ni que vayan a cambiar la guerra, sino que van a destruir la confianza humana. Nos llevarán a un mundo donde no se puede distinguir la verdad de la falsedad. No sabes en quién confiar. La confianza resulta ser una de las características más importantes de la civilización, y ahora corremos un gran riesgo de destruir los vínculos de confianza que han hecho posible la civilización.” (Mc Neill, 2023)
En una visión algo más optimista, los comunicadores norteamericanos Andrea Guzman y Seth Lewis plantean que, durante milenios, los seres humanos hemos buscado comprender la naturaleza de las personas y las cosas, y la tecnología ha sido un área en donde se ha explorado cómo funcionan nuestros cuerpos y mentes. Las IAs generativas desempeñan un papel importante en el campo del diseño y la comunicación visual al automatizar la comunicación y los procesos sociales dependientes de ella. A diferencia de los modelos tradicionales de comunicación, donde los humanos son los comunicadores y la tecnología es el medio, las IAs diseñadas como comunicadores crean significado en lugar de simplemente mediar en la interacción humana. Las interacciones de las personas hoy en día son con entidades similares a humanos en lugar de seres humanos reales. (Guzman & Lewis, 2020).
Este cambio en la naturaleza del diseño tecnológico plantea cuestiones éticas y legales sobre el desarrollo y uso de la IA, la robótica y otras tecnologías.
El investigador francés Jean-Gabriel Ganascia plantea tres principales riesgos del avance de la IA y la superación de las facultades cognitivas humanas en múltiples terrenos: la escasez de trabajo, que sería ejecutado por máquinas en lugar de seres humanos; las consecuencias para la autonomía del individuo, en especial para su libertad y su seguridad; y la superación del género humano, que sería sustituido por máquinas cada vez más «inteligentes».
Sin embargo, plantea que en realidad el trabajo no desaparecería, sino que se transforma y exige nuevas habilidades. Del mismo modo, la autonomía del individuo y su libertad no están inexorablemente comprometidas por el desarrollo de la IA, siempre y cuando se mantenga un control riguroso en lo relativo a las intromisiones de la tecnología en nuestra vida privada. (Ganascia, 2018)
Respecto a las IA generativas, el World Economic Forum también advierte la preocupación por el impacto en la sociedad y la posible pérdida de empleos creativos debido a la falta de regulación. Se plantean serios problemas de propiedad intelectual y derechos de autor al descubrirse que los modelos de IA extraen datos de Internet sin consentimiento para su entrenamiento. Los investigadores evaden su responsabilidad ética al excusarse diciendo que solo están resolviendo un problema técnico, sin considerar los daños a las comunidades creativas. También existe preocupación por la posibilidad de generar contenido falso y engañoso, imágenes violentas y cargadas de prejuicios, lo que contribuye a la difusión de noticias falsas y la desinformación (Larsen et al., 2023).
Los sesgos reproducidos por los sistemas de aprendizaje automático surgen debido a la gran cantidad de datos almacenados, los cuales han sido catalogados y clasificados previamente por personas que están predispuestas por sus propios prejuicios. Estos métodos han sido destacados por muchos artistas y creativos de diferentes disciplinas. Después de todo, el arte siempre ha desempeñado un papel fundamental en la visibilización de los problemas sociales de la humanidad y su tiempo. (de Propios Martínez, 2022)
También surge el problema del acceso y la desigual disponibilidad de estas herramientas, ya que el sector privado trabaja con estrategias de publicación limitada y acceso controlado. A pesar de existir iniciativas de acceso gratuito, la mayoría de las herramientas más potentes son exclusivas de pago. Además, se requiere una capacidad, velocidad y rendimiento de cómputo suficiente para ejecutar el software sin problemas, lo que dificulta su uso por parte de un público interesado en general (de Propios Martínez, 2022). En contraste, varias organizaciones abogan por un acceso libre para democratizar su uso.
En su libro «Atlas de Inteligencia Artificial: Poder, política y costos planetarios», Kate Crawford plantea diversos problemas que ha acarreado el desarrollo de esta tecnología en las últimas décadas. Expone la explotación minera extractivista y depredadora de la que depende la industria informática y de comunicaciones, la alta demanda de recursos energéticos de los modelos de entrenamiento y procesamiento de IA, la utilización de mano de obra barata del tercer mundo para microtareas que hacen que los sistemas de datos parezcan más inteligentes de lo que realmente son, el manejo deshumanizado de datos e imágenes personales, las prácticas de clasificación de datos de forma sesgada y prejuiciosa que refuerzan las desigualdades, y los sistemas de vigilancia y control aplicados a los trabajadores, así como por parte de gobiernos, policía y sistemas represivos en todo el mundo. En conclusión, Crawford argumenta que esta tecnología actúa muchas veces como una estructura de poder que amplifica las asimetrías ya existentes. (Crawford, 2022)
Ante esta situación, el Parlamento Europeo ha alcanzado un acuerdo final sobre la Ley de Inteligencia Artificial. Esta ley establece un marco jurídico uniforme para regular el desarrollo, la comercialización y el uso de la inteligencia artificial en la Unión Europea. Su objetivo es mejorar el funcionamiento del mercado interno y garantizar un alto nivel de protección en áreas como la salud, la seguridad, los derechos fundamentales, la democracia, el Estado de Derecho y el medio ambiente frente a los posibles efectos negativos de los sistemas de inteligencia artificial. La ley clasifica los sistemas de IA según su nivel de peligrosidad y establece diferentes obligaciones para proveedores y usuarios de estos sistemas. Además, se ha firmado un importante acuerdo internacional entre Estados Unidos, la Unión Europea y China para abordar los riesgos asociados a la inteligencia artificial. Este acuerdo, conocido como la Declaración de Bletchley, ha sido firmado por 28 gobiernos y es considerado el primer gran acuerdo global sobre los riesgos de la IA.
Estas medidas reflejan la creciente preocupación y conciencia sobre los desafíos y riesgos que plantea la inteligencia artificial en diferentes ámbitos de la sociedad. Buscan establecer un marco regulatorio que promueva un uso ético y responsable de la IA, sin dejar de fomentar la innovación y el desarrollo de esta tecnología.
Bibliografía:
- Marx, K. (2001). Elementos fundamentales para la crítica de la economía política 2. Siglo XXI Ediciones.
- Sadin, E. (2020). La inteligencia artificial o el desafío del siglo: anatomía de un antihumanismo radical. Caja Negra Editora.
- CNNChile. (2023, noviembre 9). Komal Dadlani, científica: La mayoría del mundo “no sabe cómo la Inteligencia Artificial les va a cambiar la vida”. https://www.cnnchile.com/programas-completos/komal-dadlani-inteligencia-artificial_20231109/
- Scolari, C. A. (2023, mayo 14). 10 tesis sobre la IA. Hipermediaciones. https://hipermediaciones.com/2023/05/14/10-tesis-sobre-la-ia/
- Mc Neill, T. (2023, octubre 2). Daniel Dennett’s been thinking about thinking—and AI. Tufts Now. https://now.tufts.edu/2023/10/02/daniel-dennetts-been-thinking-about-thinking-and-ai
- Guzman, A. L., & Lewis, S. C. (2020). Artificial intelligence and communication: A Human–Machine Communication research agenda. New Media & Society, 22(1), 70-86. https://doi.org/10.1177/1461444819858691
- Ganascia, J.-G. (2018, junio 25). Inteligencia artificial: entre el mito y la realidad. UNESCO. https://es.unesco.org/courier/2018-3/inteligencia-artificial-mito-y-realidad
- Larsen, B., Narayan, J., & World Economic Forum. (2023, enero 16). IA generativa: Por qué la sociedad debe prepararse para ese punto de inflexión. Foro Económico Mundial. https://es.weforum.org/agenda/2023/01/ia-generativa-que-es-y-por-que-la-sociedad-debe-prepararse-para-este-punto-de-inflexion/
- De Propios Martínez, C. (2022). Arte e inteligencia artificial: técnicas de aprendizaje automático en el arte generativo actual. https://docta.ucm.es/handle/20.500.14352/3923
- Crawford, K. (2022). Atlas de inteligencia artificial: poder, política y costos planetarios. Fondo de Cultura Económica.