Un hacker logra que ChatGPT le diga cómo fabricar una bomba

La IA puede ser una tecnología peligrosa en las manos equivocadas. El potencial para causar un desastre sería muy alto si empresas como OpenAI o Google no incluyeran barandillas de seguridad en sus modelos de lenguaje. Si bien ChatGPT ha mejorado en este aspecto, el chatbot todavía es vulnerable a un jailbreak que permite obtener […]

Seguir leyendo: Un hacker logra que ChatGPT le diga cómo fabricar una bomba

Sé el primero en comentar

Dejar una contestacion

Tu dirección de correo electrónico no será publicada.


*