La llegada de ChatGPT ha causado un gran revuelo en el mundo de la tecnología por el increíble desempeño de este modelo de inteligencia artificial. Sin embargo, no todo es color de rosa, pues según un reciente informe de Cyberhaven, el uso de ChatGPT podría poner en riesgo la información sensible de muchas compañías.
El informe de esta prestigiosa consultora de seguridad de datos reveló que, si bien no es un número significativo, descubrieron que empleados de varias compañías introducían, inocentemente, información secreta de las empresas para las que trabajan.
Ejemplo de lo anterior fue un caso de un directivo de una importante compañía que pegó el documento con la estrategia de 2023 para que ChatGPT realizara una presentación en Power Point y con esto, inocentemente, le entregó al modelo de inteligencia artificial información sensible para la compañía.
Otro caso mencionado por la consultoría reveló que un médico introdujo el estado de salud y el nombre de una persona con el objetivo de que ChatGPT realizara una carta dirigida al seguro del paciente.
Vale la pena mencionar que cualquier información que se introduzca en ChatGPT es absorbida por el modelo que se alimenta de ella para ampliar su base de datos y de esta manera poder ofrecer mejores respuestas a los usuarios.
Además, cabe recordar que ChatGPT no reconoce si la información es sensible o ultrasecreta, por lo que resulta imposible que el modelo “bloquee” de alguna forma estos datos.
Ante esta situación, varias empresas han prohibido a sus empleados el uso de cualquier modelo de inteligencia artificial para realizar este tipo de tareas pues ponen en riesgo la seguridad de sus productos y además le brindan a la competencia la posibilidad de espiar códigos fuente de aplicaciones o bases de datos de actuales y futuros clientes.