La acelerada expansión de la inteligencia artificial (IA) genera polémica sobre sus beneficios, riesgos y límites. Ante esto, se conoció una iniciativa que refuerza la idea de que el desarrollo tecnológico ya no puede desligarse de la responsabilidad ética y social.
En ese contexto, OpenAI anunció una convocatoria para contratar a un responsable de Preparación, un puesto “crucial” para continuar con la evolución de los modelos de inteligencia artificial (IA) evitando que puedan causar daño en el mundo real.

Los modelos de IA son cada vez más capaces, pero estas capacidades plantean riesgos en el mundo real, como problemas de salud mental y de seguridad, con el abuso de sus capacidades para personalizar las campañas maliciosas o incluso generar nuevo ‘malware’.
Las capacidades de estos modelos también les permiten detectar vulnerabilidades críticas en los sistemas informáticos, lo que ha llevado a OpenAI, responsable de los modelos GPT y del chatbot ChatGPT, a buscar un responsable de Preparación.

Este puesto es “crucial”, como ha expuesto el director ejecutivo de la compañía, Sam Altman, en su cuenta de X, donde ha explicado que “será un trabajo estresante” y quien lo acabe ocupando “estará envuelto en una situación complicada casi de inmediato”.
Ello se debe a que su principal deber será anticiparse a los peligros que plantea la IA en el mundo real para mitigarlos, tanto biológicos como de ciberseguridad, como se explica en la oferta de empleo.

Para ello, tendrá que “desarrollar y coordinar evaluaciones de capacidades, modelos de amenazas y mitigaciones que conforman un proceso de seguridad coherente, riguroso y escalable operativamente”.
Esta convocatoria llega en un momento en el que los sistemas de IA son cada vez más potentes, accesibles y capaces de influir en decisiones humanas, procesos económicos y flujos de información. El futuro de la inteligencia artificial no solo se juega en la innovación, sino también en la capacidad de prever y mitigar sus peligros.
*Con información de Europa Press.
