Tecnología
Google lanza un programa de recompensas específico para fallos de IA: así funciona
El nuevo programa abarca seis reglas.
Léenos en Google Discover y mantente un paso adelante con SEMANA

Google anunció un programa de recompensas dedicado a las vulnerabilidades de sus sistemas de inteligencia artificial (IA) que podrá premiar los descubrimientos individuales con hasta 30.000 dólares.
El nuevo Programa de Recompensas por Vulnerabilidades de IA nace para resolver las dudas que los desarrolladores e investigadores de ciberseguridad tenían hasta ahora sobre las recompensas, después de dos años de informes sobre fallos en los productos de IA dentro del Programa de Recompensas por Vulnerabilidades de Abuso.
Al establecer un programa específico para los fallos y las vulnerabilidades de sus sistemas de IA, Google ha decidido limitar las recompensas a los problemas de abuso de alto impacto y de seguridad, y dejar fuera los que están relacionados con el contenido dentro de un producto.
Esto se debe a que “los productos de IA de Google cuentan con funciones integradas para informar sobre problemas de contenido”, que revisan profesionales capacitados, expertos en modelos de IA y representantes de los equipos de producto pertinentes, como explica la compañía en un comunicado compartido en el blog de Cazarrecompensas.

El nuevo programa dedicado a la IA abarca seis reglas: denegación de servicio entre usuarios, uso no autorizado del producto, omisión del control de acceso con impacto limitado en la seguridad, manipulación del contexto entre cuentas, robo de modelos, habilitación de ‘phishing’, exfiltración de datos confidenciales y acciones deshonestas. Y atiende a tres niveles de producto: buque insignia, estándar y otro.
Según la nueva tabla compartida por Google, la recompensa individual más alta es de 20.000 dólares (uno 17,131 euros), y que corresponde a acciones deshonestas en buque insignia. Sin embargo, la compañía matiza que con multiplicadores de bonificación, esta puede llegar a ascender a 30.000 dólares.
Así es como ciberdelincuentes habrían usado ChatGPT para crear malware y estafas
Recientemente, OpenAI reveló casos de redes que han abusado de sus herramientas de inteligencia artificial, como ChatGPT, para impulsar campañas maliciosas, generar contenido con información sesgada o monitorear conversaciones en redes sociales.
Desde febrero de 2024, la firma tecnológica ha interrumpido las actividades de 40 redes por violar los términos de uso de sus herramientas de IA. Estas acciones hacen parte de su compromiso por desarrollar una inteligencia artificial que beneficie a todos y contribuya a resolver problemas complejos.
En un nuevo informe publicado este martes, OpenAI detalla varios casos de uso indebido por parte de actores maliciosos ubicados principalmente en Camboya, Corea, Rusia y China, quienes utilizaron sus herramientas para ejecutar ciberataques, estafas y operaciones de influencia encubierta, entre otros fines.
Entre los ejemplos mencionados, una red de origen coreano empleó ChatGPT para desarrollar malware y una estructura de comando y control. Otra red, que operaba desde Camboya, Birmania y Nigeria, intentó usar el chatbot para engañar a personas mediante una campaña fraudulenta.
Con información de Europa Press