Las IA conversacionales han evolucionado mucho en poco tiempo como ChatGPT y ha pillado a muchas empresas desconcertadas con lo que pueden suponer o el poder que tienen. Una de las alarmas que han saltado en muchas multinacionales es la posibilidad de que estas IA puedan filtrar sus futuros planes o incluso a errores en sus procedimientos.
Apple es un ejemplo de multinacional que precisamente ha impedido que sus empleados puedan usar cualquier tipo de IA alegando los problemas de seguridad y filtraciones que se puedan sufrir. Y es que estos empleados pueden realizar preguntas a la IA de un futuro proyecto secreto que están haciendo para facilitar su trabajo, y ya vimos que la política de privacidad no es muy adecuada. Pero en España también han saltado las alarmas y son varias las empresas que han seguido procedimientos similares.
Saltan las alarmas en torno al uso de ChatGPT en las empresas
Tal y como han confirmado a El MUNDO, compañías españolas como Telefónica, BBVA o Red Eléctrica han impuesto limitaciones a sus empleados para poder utilizar ChatGPT por la información errónea que puede contener. Telefónica ha apostado por no usar estas herramientas para almacenar información de la empresa y BBVA únicamente lo autoriza a aquellas personas que le buscan una utilidad real.
Red Eléctrica que controla infraestructuras críticas de nuestro país también ha bloqueado el uso de ChatGPT al no estar en un entorno cerrado por los riesgos que existen de que se difunda la información. Otras como Mapfre, Repsol, Naturgy o Enagás también preparan recomendaciones y protocolos para usar la IA e manera segura y ética.
El problema que le ven empresas como CaixaBank, en boca de su consejero delegado, es el entorno abierto en el que se mueve ChatGPT u otras IA. Cree que en todo caso se podría valorar su empleo para facilitar el trabajo interno pero siempre que se configure en un entorno cerrado que garantice que los datos sensibles no se difundan y que esté todo controlado para que no se ofrezca información errónea. Porque debemos tener en cuenta que ChatGPT al no estar conectada a internet puede tener datos desactualizados que no se deben utilizar dentro de estas empresas.
Pero en lo que coinciden todas las empresas es que hace falta tener una regulación de la IA para que se use de manera ética, y sobre todo segura con un criterio unificado para el sector privado y público. Y es que el propio Sam Altman ha pedido en Estados Unidos la regulación sobre la IA y la Secretaria de Estado de Digitalización e IA ha afirmado que España será el primer país con una agencia para poder realizar las tareas de supervisión.
De momento, las empresas avanzan por aplicar regulaciones internas y con algunas prohibiciones importantes. Lo que está claro es que aunque la IA puede ser de gran utilidad hay que tener mucho cuidado cuando se trabaja con datos personales o con proyectos secretos, pues las filtraciones siempre están ahí y puede ser una importante violación de la privacidad.