La importancia de comprender los riesgos: Investigadores de humanidades destacan los posibles efectos negativos de la inteligencia artificial

Un grupo de académicos en el campo de las humanidades ha llevado a cabo un análisis exhaustivo sobre cómo la eficiencia y la velocidad de la inteligencia artificial pueden estar desplazando la importancia del juicio y los valores humanos en el proceso de toma de decisiones.

Estos expertos han destacado la necesidad de comprender el potencial negativo de la IA, a pesar de su capacidad para mejorar significativamente la calidad de vida de las personas. En definitiva, la investigación ha subrayado la importancia de mantener una perspectiva equilibrada sobre el papel de la IA en nuestra sociedad, y de ser conscientes de sus posibles consecuencias adversas.

Cuando la IA falla, lo hace «de manera bastante espectacular», comenta Vern Glaser, profesor de la Escuela de Negocios de la Universidad de Alberta (Canadá). «Si no trata activamente de pensar en las implicaciones de valor, terminará creando malos resultados», subraya.

En su estudio, publicado recientemente en MIT Sloan Management Review, los investigadores argumentaron su punto de vista con varios casos reales de resultados desastrosos de la implementación de la IA. Por ejemplo, cuando en el 2016 se introdujo el chatbot Tay en Twitter, se eliminó en las siguientes 24 horas debido a que los troles le enseñaron a desarrollar un lenguaje racista.

Si bien la IA promete brindar enormes beneficios a la sociedad, ahora también estamos comenzando a ver su parte más oscura, manifestaron los analistas. Más recientemente, algunos expertos, como Lawrence Martin, señalan las posibilidades distópicas de la IA, incluidas las armas que pueden disparar sin supervisión humana, los ataques cibernéticos, las falsificaciones y las campañas de desinformación.

Los expertos sustentaron su análisis en la noción de «técnica» del filósofo francés Jacques Ellul, ofrecida en su libro ‘La sociedad tecnológica’, de 1954, según la cual cada campo de la actividad humana está determinado por los imperativos de eficiencia y productividad. «Ellul fue muy profético», escribieron. «Su argumento es que cuando pasas por este proceso de técnica, inherentemente estás eliminando valores y creando este mundo mecánico donde tus valores esencialmente se reducen a la eficiencia», señalaron.

Tres principios fundamentales
Para protegerse de la «tiranía de la técnica» de la IA, los expertos sugieren adherirse a tres principios:

Reconocer que debido a que los algoritmos son matemáticos, se basan en representaciones digitales de fenómenos reales. Un ejemplo de ello, es que las redes sociales miden la amistad por cuántos amigos tiene un usuario o por la cantidad de ‘me gusta’ que reciben de sus amigos en las publicaciones. «¿Es eso realmente una medida de amistad?», se cuestionan.

Los diseñadores de IA deberían insertar estratégicamente intervenciones humanas en la toma de decisiones algorítmicas y crear sistemas evaluativos que tengan en cuenta múltiples valores.

Por último, la IA que encarna los valores humanos requiere una supervisión vigilante y continua para evitar que surja su feo potencial.

Los analistas señalan que la IA es simplemente un reflejo de quiénes somos, en nuestro mejor y peor momento. «Sin una buena y dura mirada en el espejo, este último podría tomar el relevo», indicaron. «Queremos asegurarnos de que entendemos lo que está pasando, para que la IA no nos controle», concluyeron.