Usar ChatGPT para trabajar implica algunos riesgos: estos son los más importantes

Usar internet siempre implica cierto riesgo, ya sea en el ámbito personal como en el profesional. Pero después de ver todo lo que pueden hacer inteligencias artificiales como ChatGPT, implementarla en las rutinas de algunos trabajos parece inevitable (de hecho, en algunas profesiones puede hasta marcar la diferencia). El problema está en que algunas empresas como Samsung y Apple están prohibiendo su uso por cuestiones de confidencialidad. Si empleas ChatGPT para tu trabajo, merece la pena conocer a fondo su funcionamiento, riesgos y las condiciones que aceptas cuando la usas.

ChatGPT y otros modelos generativos con inteligencia artificial se han vendido como la herramienta definitiva de productividad, la panacea para escribir artículos por ti, correos electrónicos, tus redes sociales, resúmenes de largos y complejos textos…estos meses hemos tenido la oportunidad de verlo y comprobarlo nosotros mismos.

El vicepresidente de investigación de privacidad de Gartner Nader Henein da una imagen muy acertada de lo que es en realidad ChatGPT para Mashable: es una especie de extraño afable sentado delante de ti en el autobús grabándote con la cámara del móvil. En ese escenario, ¿nos imaginamos compartiendo información sensible? El sentido común dice que no.

Pero la tentación de reducir trabajo rutinario está ahí, llamándote, lo que nos lleva a pensar en estos chatbots en algo parecido a una calculadora o una hoja de cálculo cuando en realidad esa información va a la nube, es analizada y se queda allí «para siempre». El caso Samsung fue uno de los primeros y más sonados: emplearon ChatGPT para verificar su código y así, sin darse cuenta, revelaron datos comerciales.

Porque ves que el chatbot de OpenAI tiene una interfaz sencilla e intuitiva, un lenguaje que parece humano, un sentido del humor que te puede sacar una sonrisa y un vasto fondo de armario para resolver dudas, corregir errores, darte ideas…cualquier día, a cualquier hora del día (aunque si usas la versión gratis, a veces puedes encontrártela saturada). Y así es fácil relajarse y tratar de exprimirla al máximo.

Recientemente ChatGPT implementó una función que mejora la privacidad de quienes usan su modelo: la posibilidad de evitar que almacene nuestros chats para usarlos posteriormente para el entrenamiento, una de las medidas que han aflojado la soga al cuello de OpenAI en Europa, donde llegó a estar prohibido en Italia. Es un paso adelante, pero todavía quedan riesgos en el camino.

Sirva como ejemplo las declaraciones de Sam Altman, el CEO de OpenAI, en su perfil de Twitter, donde ha reconocido abiertamente los riesgos de confiar en ChatGPT: «es un error confiar en él para cosas importantes en este momento, tenemos mucho trabajo por hacer en fiabilidad y robustez.»

¿Qué riesgos implica usar ChaGPT?

Para profundizar en los riesgos implícitos de ChatGPT vamos a repasar primero lo que dice la propia OpenAI sobre su uso, después sobre el modelo en cuestión y finalmente sobre la plataforma.

Chats almacenados en servidores. Como detallan las FAQ de ChatGPT, el contenido se almacena en sus sistemas y otros «sistemas de servicios confiables en Estados Unidos y otras partes del mundo». Pero aunque OpenAI en general elimina la información personal identificable, antes estos datos en crudo están en sus servidores y parte de su personal tiene acceso a ellos para tareas como afinar sus modelos, proporcionar soporte, detectar abuso y cumplir con las obligaciones legales.

Los chats se usan para entrenar al modelo (aunque puedes deshabilitarlo). Salvo que digas lo contrario, OpenAI explica que usar los datos proporcionados por usuarios y usuarias para mejorar sus modelos. Sobre el anonimato de los datos, OpenAI detalla que puede «agregar o anular la identificación de la información personal y usar la información agregada para analizar la efectividad de nuestros servicios». En la práctica, esto posibilitaría que pudiera filtrar secretos comerciales ofreciendo el «qué» y el «quién». Aunque antes la opción de dejar de compartir datos para el entrenamiento pasaba por enviar un formulario de Google cumplimentado, ahora dispone de una opción en su configuración para desactivarlo antes. Eso sí, incluso en el modo incógnito, las conversaciones se guardan en sus servidores durante 30 días.

Tus datos no se comercializan a terceros. Según OpenAI, no se comparten datos de los usuarios a terceros con fines de marketing o publicidad. Pero ojo, porque sí que comparte datos con vendedores y proveedores de servicios para el mantenimiento y operación de la web.

Posibles brechas de seguridad y ataques. Aunque todo lo anterior jugase en tu favor, siempre está el factor externo: que alguien ajeno a OpenAI quebrase el acceso y robase sus datos, un riesgo inherente al propio funcionamiento del sistema mediante servidores. Y de hecho, ya ha pasado: una brecha de seguridad propició que vieran la luz datos personales de sus usuarios, entre ellos, el primer mensaje de nuevos chats e información de pago de quienes usan ChatGPT Plus.

La fiabilidad de sus datos. Lo advertía Altman y lo hemos visto: con código erróneo que provocó la prohibición de su uso en Substack o del abogado que se ha visto en problemas legales por usar referencias proporcionadas por ChatGPT que no existían. La inteligencia artificial puede agilizar tareas y orientarte, pero por el momento no debe ser la referencia absoluta y sí una orientación. Máxime cuando como en ChatGPT, no proporciona la fuente para validar los datos.

Así que si tu idea es es usar ChatGPT en el trabajo para que te explique cosas que no entiendes, escribir informes o analizar datos… y no existe una normativa específica corporativa, entonces procede con precaución. ChatGPT ya advierte sobre el uso de información personal, pero la profesional confidencial también puede salirte cara.