Cuando estás usando ChatGPT probablemente no te das cuenta, pero lo normal es que introduzcas datos de todo tipo para resolver tu problema. Algunos de ellos pueden ser sensibles, y eso, que es ciertamente delicado en el caso de usuarios finales, lo es aún más en el caso de los usuarios empresariales, como ha descubierto la multinacional surcoreana Samsung.
Qué ha pasado. Como indican en CNBC, Samsung está restingiendo el uso de modelos de IA generativa como ChatGPT entre sus empleados. La empresa ha descubierto que su plantilla está haciendo un mal uso de esta herramienta, y sus responsables confirmaban en este medio que estaban «restringiendo temporalmente» el uso de estos sistemas en los ordenadores personales de la compañía. Ya habían hecho este movimiento en sus fábricas de chips hace semanas.
Cuidado con ChatGPT. La empresa informó a sus empleados en un comunicado interno a finales de abril y les indicó que había detectado un uso inadecuado de la herramienta. En Bloomberg indicaban cómo a principios de abril ingenieros de Samsung filtraron accidentalmente código de Samsung al subirlo a ChatGPT. No se conocen detalles sobre el código y su impacto al haberse filtrado.
Datos confidenciales que acaban donde no deben. En ese comunicado interno los responsables de Samsung indicaban que «el interés por las plataformas de IA generativa, como ChatGPT, ha ido creciendo tanto interna como externamente. Aunque este interés se centra en la utilidad y eficiencia de estas plataformas, también existe una creciente preocupación por los riesgos de seguridad que presenta la IA generativa».
Si lo usas puedes acabar despedido. Los responsables de Samsung dejaban también claro en su mensaje el riesgo que implicaba usar esta herramienta a partir de ahora. Además de solicitar que los empleados siguieran sus normas de seguridad, avisaban de que no hacerlo puede tener como resultado «una acción disciplinaria que puede llegar a ser el despido».
Samsung no es la primera (y no será la última). Otras empresas ya tomaron medidas similares ante el peligro de que datos confidenciales acaben en ChatGPT. Entidades financieras como JPMorgan Chase & Co, Bank of America y Citigroup —entre otros— prohibieron o restringieron su uso en febrero. La realidad es que el modelo creado por OpenAI no sabe guardar secretos y existen ya vectores de ataque para aprovechar esas vulnerabilidades. Las empresas comienzan a tener claro los riesgos de usar este y otros modelos como Bing con ChatGPT o Google Bard. JP Morgan de hecho anunciaba hace unos días su propia IA para analizar los anuncios de la Reserva Federal de EEUU.
ChatGPT en modo «Incognito». OpenAI, creadora de ChatGPT, sabe bien que este problema existe, y está tomando medidas para evitar o al menos minimizar el riesgo. La semana pasada se anunció la llegada lo que algunos calificaron como un «modo Incognito» para ChatGPT. Al activarlo, ChatGPT no almacena el historial de conversación ni lo usa para mejorar sus prestaciones.
Y preparan más medidas. La empresa también está preparando un servicio de suscripción a «ChatGPT Business» con controles adicionales de seguridad para evitar que información sensible pueda filtrarse, de modo que las empresas puedan aprovechar el potencial de esta solución sin riesgos. Esta y otras medidas se activaron en parte como respuesta a la situación de ChatGPT en Europa. Italia decidió prohibirlo a nivel nacional aunque ha levantado el veto, y otros países europeos —España incluida— se plantean hacer exactamente lo mismo.
Microsoft prepara su jugada. Mientras tanto, Microsoft tuvo buen cuidado de tener muy en cuenta este tema cuando presentó Microsoft 365 Copilot, su evolución de Office que aprovecha la potencia de ChatGPT pero que lo hace de una forma especial: restringiendo el alcance del modelo de IA para que los datos confidenciales con los que se trabaja en esas aplicaciones no salgan de la empresa.