ChatGPT es utilizado por ciberdelincuentes

Los grupos de hackers están recurriendo a ChatGPT y otras tecnologías de inteligencia artificial para mejorar sus ciberataques, advirtieron OpenAI y Microsoft. Grupos de ciberdelincuentes utilizan estas herramientas para clonar la voz, robar identidad, crear noticias falsas y mejorar los malwares o virus que circulan en internet.

Es importante destacar que OpenAI prohíbe el uso de sus modelos, como ChatGPT, para actividades ilegales o fraudulentas. Sin embargo, es posible que los ciberdelincuentes intenten aprovechar la tecnología con métodos de ingeniería social.

Algunos posibles modos de estafa podrían incluir:

Phishing Avanzado: Los ciberdelincuentes podrían utilizar ChatGPT para generar mensajes de phishing más sofisticados, engañando a las personas para que revelen información confidencial, como contraseñas o datos financieros.

Suplantación de Identidad Mejorada: Mediante la generación de contenido convincente, podrían intentar suplantar la identidad de una persona o entidad conocida para engañar a los usuarios.

Generación de Contenido Engañoso: Podrían utilizar ChatGPT para crear mensajes o publicaciones en redes sociales diseñadas para difundir desinformación o engañar a la audiencia.

Ataques de Ingeniería Social Sofisticados: Los ciberdelincuentes podrían usar ChatGPT para mejorar la calidad de sus mensajes de ingeniería social, persuadiendo a las personas para que realicen acciones no deseadas.

Es crucial estar atento y seguir buenas prácticas de seguridad en línea, como verificar la autenticidad de las fuentes y no proporcionar información confidencial sin verificar la identidad de la entidad solicitante. Además, informar cualquier comportamiento sospechoso o abuso de la tecnología es fundamental para combatir estas prácticas indebidas.