Tecnología

Preocupación por los primeros intentos de hackeo a ChatGPT

ChatGPT también es un objetivo de acciones maliciosas que buscan ‘hackearlo’.

GoogleSiga de cerca las tendencias en tecnología y ciencia en Discover

17 de abril de 2023 a las 9:08 p. m.
La inteligencia artificial de ChatGPT puede ser usada por cibercriminales para estafar a las personas.
La inteligencia artificial de ChatGPT puede ser usada por cibercriminales para estafar a las personas. Foto: Composición de SEMANA con imágenes de Getty Images

El auge de la popularidad de los ‘chatbots’ ha atraído la atención de otros actores que buscan aprovechar los puntos débiles que estos sistemas de inteligencia artificial (IA) puedan tener para que hagan cosas para las que no están diseñados o para infectarlos con malware.

En este mismo sentido, el chatbot de OpenAI ChatGPT puede utilizarse para la creación de malware a partir de su función de apoyo para la escritura de código, y pese a los filtros de seguridad que sus responsables han implantado, como ha demostrado recientemente un investigador de Forcepoint.

MADRID, SPAIN - APRIL 14: A tab of the ChatGPt website on a computer, on 14 April, 2023 in Madrid, Spain. The Spanish Data Protection Agency has initiated ex officio preliminary investigation proceedings against the U.S. company OpenAI, owner of the ChatGPT service, for a possible breach of regulations. The Agency requested the European Data Protection Board (EDPB) to include the ChatGPT service as an issue to be addressed at its plenary meeting, considering that "global processing operations that may have a significant impact on the rights of individuals require harmonized and coordinated actions at European level in application of the General Data Protection Regulation". With the initiation of the investigation in Spain and the participation in the European working group, the AEPD acts in parallel within the framework of its powers and competences as a national supervisory and control authority, as well as in coordination with its European counterparts through the Committee. (Photo By Eduardo Parra/Europa Press via Getty Images)
Cursos en línea creados por ChatGPT: así es como la inteligencia artificial ayuda a estructurar cursos para creadores de contenido
El software de texto ChatGPT - Imagen de referencia. Foto: Frank Rumpenhorst /Picture Alliance vía Getty Images)
El chatbot de OpenAI ChatGPT puede utilizarse para la creación de ‘malware’ a partir de su función de apoyo para la escritura de código. Foto: dpa/picture alliance via Getty I

Este hecho contiene la situación contraria, que ChatGPT también sea el objetivo de acciones maliciosas que buscan hackearlo. En concreto, sobrepasar las medidas que se han introducido para que las conversaciones con los usuarios sean seguras.

Es el caso que recogen en Wired, donde explican la experiencia de Alex Polyakov, quien logró hackear la última versión del modelo de lenguaje que lo sustenta, GPT4, en un par de horas tras su lanzamiento en marzo, y ahora tiene en su poder un jailbreak universal que funciona con distintos modelos de lenguaje de gran tamaño.

La forma en que Polyakov describe el hackeo del chatbot consiste en introducir una serie de entradas o apuntes mediante frases cuidadosamente compuestas, que terminen por levantar los filtros para que ChatGPT empiece a expresarse con lenguaje racista o proponga actos ilegales, por ejemplo. Pero también para permitir la inserción datos o instrucciones maliciosos.

El sitio web de ChatGPT y OpenAI se proyecta para una foto ilustrativa en Gliwice (Polonia), el 21 de febrero de 2023 (Foto de Beata Zawrzel/NurPhoto vía Getty Images)
La forma en que Polyakov describe el hackeo del chatbot consiste en introducir una serie de entradas o apuntes mediante frases cuidadosamente compuestas, que terminen por levantar los filtros para que ChatGPT empiece a expresarse con lenguaje racista o proponga actos ilegales. Foto: NurPhoto via Getty Images

OpenAI, por su parte, es consciente de los fallos que puede haber en el desarrollo de sus modelos de lenguaje y por ello ha anunciado un programa de recompensas, con el que premiará con hasta 20.000 dólares a quienes encuentren vulnerabilidades y errores en sus sistemas de IA.

La creación de malware, precisamente, es uno de los primeros casos de uso sobre los que ya han advertido los investigadores de ciberseguridad.

La IA puede crear un ‘malware’ indetectable por un antivirus

Ya son varias las compañías que han implementado esta tecnología en sus servicios, como es el caso de Microsoft en su motor de búsqueda, Bing, y su navegador, Microsoft Edge. Sin embargo, hay empresas tecnológicas y líderes del sector que han señalado la peligrosidad de esta inteligencia artificial (IA).

Entre ellos, el cofundador de Apple, Steve Wozniak, o el director ejecutivo de Tesla, SpaceX y Twitter, Elon Musk, que aparecen como firmantes de una petición en la que se busca paralizar temporalmente los grandes experimentos con IA por los riesgos que pueden suponer para la sociedad.

De hecho, compañías enfocadas a la ciberseguridad, como Check Point, han descubierto que los ciberdelincuentes ya utilizan esta herramienta para recrear cepas de malware y ejecutar ataques de software malicioso.

Malware - Virus
Compañías enfocadas a la ciberseguridad, como Check Point, han descubierto que los ciberdelincuentes ya utilizan esta herramienta para recrear cepas de malware y ejecutar ataques de software malicioso. Foto: Getty Images

Más recientemente, el investigador de Forcepoint, Aaron Mulgrew, descubrió que se puede utilizar este chatbot para desarrollar un exploit de día cero que puede robar datos de un dispositivo y evadir controles de detección de software malicioso como los que reúnen los antivirus.

En ese sentido, Mulgrew explicó que, aun siendo “un novato confeso”, fue capaz de crear malware “en pocas horas” con la ayuda de ChatGPT, comenzando sus pruebas con el lenguaje de programación Go.

El sitio web de ChatGPT y OpenAI se proyecta para una foto ilustrativa en Gliwice (Polonia), el 21 de febrero de 2023 (Foto de Beata Zawrzel/NurPhoto vía Getty Images)
Teclado inteligente basado en ChatGPT, lo nuevo de Microsoft

Si bien en primer lugar este chatbot le recordó que no era ético generar malware y se negó a ofrecerle ningún código para ayudarle a llevar a cabo esta acción, el investigador se percató pronto de que era sencillo “evadir las protecciones insuficientes que tiene ChatGPT y crear malware avanzado sin escribir ningún código”, esto es, solo con el propio modelo desarrollado por OpenAI.

*Con información de Europa Press.