El tema de utilizar a la inteligencia artificial como experto en áreas las cuales son fundamentales en la humanidad como la mente y el comportamiento continúan siendo tendencia y de acuerdo con lo comentado por empresas como OpenAI es algo que está en incremento.
En esta ocasión, el experto Jon Hernández ha comentado acerca de la problemática que esto crea en la humanidad.
La advertencia de Jon Hernández sobre el uso de la IA en psicología
Recientemente, el pódcast ‘Roca Project’ de Carlos Roca tuvo como invitado a Jon Hernández, quien es reconocido especialmente en las redes sociales por enseñar diferentes datos acerca de la IA, personaje quien fue fundamental para abarcar el tema acerca de cómo la inteligencia artificial está cambiando la manera de vivir de la humanidad.
Dentro de la conversación se tocó el tema de cómo diferentes aspectos laborales han sido modificados e incluso del uso de esta tecnología para buscar ayuda profesional, principalmente en el área de la psicología, aspecto en el cual el experto indica que nunca debería ser utilizada, dado que no está programada para esto.
“Si conocéis a alguien que utiliza la IA como psicólogo por problemas reales, dadle dos hostias y sacarle el móvil de la mano”, resaltó Hernández durante el pódcast.
Asimismo, el experto enfatizó que estos modelos de IA no cuentan con filtros que funcionen para este tipo de ocasiones y además de ello, en caso de suceder tragedias, las compañías no se harían responsables.
“No me arriesgaría a poner mi salud mental en manos de algo que no ofrece garantías”, señaló.
Casos en los que se ha usado la IA como psicólogo
Lo mencionado en ‘Roca Project’ por Hernández no es algo que se aleje de la realidad, debido a que nuevos casos en que la inteligencia artificial han sido utilizadas como consejero y psicólogo han dejado desastres, tal como el reciente caso del adolescente de 16 años que se suicidó por seguir las recomendaciones de ChatGPT.
Por otra parte, también se debe tener cuidado con que estos chatbots también cuentan con una memoria y todo lo que se le va diciendo lo irán almacenando, esto relacionado con el caso del adulto de la tercera edad quien se enamoró de una IA en donde incluso lo citó a verse en un lugar en especial y el resultado, infortunadamente el señor falleció.
Sam Altman, el CEO de OpenAI, había hecho un anuncio ante este tipo de casos
Este tema ha tenido lugar anteriormente y es que durante el pódcast ‘This Past Weekend with Theo Von’ contó con la participación de Altman, el cual señaló que algunas personas estaban utilizando ChatGPT como apoyo en momentos y problemas sentimentales.
Esto fue tema de investigación para la Universidad de Stanford, quienes concluyeron que estas IA van a responder de acuerdo con lo que están alimentadas, pero las respuestas para casos de este extremo no serán apropiadas, incluso pueden llegar a ser peligrosas cuando se abarquen temas de salud mental.
Medidas que tomó recientemente OpenAI acerca de estos casos
En un comunicado generado por OpenAI y que cuenta con la firma de Altman, se ha mencionado en medidas para tomar control frente este tipo de caso, incluso llegando a llamar la policía cuando los temas sean relacionados con violencia y en caso de conversaciones que incluyan temas de suicidio o de necesidad OpenAI podrá escanear las conversaciones y así enviar números de expertos.