Los ciberdelincuentes están creando sus propios chatbots de IA para apoyar a los usuarios que piratean y estafan
Las herramientas de inteligencia artificial (IA) dirigidas al público en general, como ChatGPT, Bard, CoPilot y Dall-E, tienen un potencial increíble para usarse para el bien.
Los beneficios van desde una mayor capacidad de los médicos para diagnosticar enfermedades hasta ampliar el acceso a la experiencia profesional y académica. Pero aquellos con intenciones criminales también podrían explotar y subvertir estas tecnologías, representando una amenaza para los ciudadanos comunes.
Los delincuentes incluso están creando sus propios chatbots de inteligencia artificial para respaldar la piratería y las estafas.
El potencial de la IA para una amplia gama de riesgos y amenazas queda subrayado por la publicación del Marco de IA Generativa del gobierno del Reino Unido y la guía del Centro Nacional de Seguridad Cibernética sobre los posibles impactos de la IA en las amenazas en línea.
Hay una variedad cada vez mayor de formas en que los delincuentes pueden utilizar los sistemas de inteligencia artificial generativa como ChatGPT y Dall-E. Debido a la capacidad de ChatGPT para crear contenido personalizado basado en unas pocas indicaciones simples, una forma potencial en que los delincuentes podrían aprovecharlo es elaborando estafas convincentes y mensajes de phishing.
Un estafador podría, por ejemplo, incluir información básica (su nombre, sexo y cargo) en un modelo de lenguaje grande (LLM, por sus siglas en inglés), la tecnología detrás de los chatbots de inteligencia artificial como ChatGPT, y utilizarla para elaborar un mensaje de phishing diseñado solo para tú. Se ha informado que esto es posible, aunque se han implementado mecanismos para evitarlo.
Los LLM también hacen posible realizar estafas de phishing a gran escala, dirigidas a miles de personas en su propio idioma nativo. Tampoco es una conjetura. El análisis de las comunidades clandestinas de piratería ha descubierto una variedad de casos de delincuentes que utilizan ChatGPT, incluso para fraude y creación de software para robar información. En otro caso, se utilizó para crear ransomware.
Chatbots maliciosos
También están surgiendo variantes maliciosas enteras de grandes modelos lingüísticos. WormGPT y FraudGPT son dos ejemplos que pueden crear malware, encontrar vulnerabilidades de seguridad en los sistemas, asesorar sobre formas de estafar a las personas, apoyar la piratería y comprometer los dispositivos electrónicos de las personas.
Love-GPT es una de las variantes más nuevas y se utiliza en estafas románticas. Se ha utilizado para crear perfiles de citas falsos capaces de chatear con víctimas desprevenidas en Tinder, Bumble y otras aplicaciones.
Como resultado de estas amenazas, Europol ha emitido un comunicado de prensa sobre el uso de LLM por parte de delincuentes. La agencia de seguridad estadounidense CISA también advirtió sobre el posible efecto de la IA generativa en las próximas elecciones presidenciales estadounidenses.
La privacidad y la confianza siempre están en riesgo cuando utilizamos ChatGPT, CoPilot y otras plataformas. A medida que más personas buscan aprovechar las herramientas de inteligencia artificial, existe una alta probabilidad de que se comparta información corporativa personal y confidencial. Esto es un riesgo porque los LLM generalmente utilizan cualquier entrada de datos como parte de su futuro conjunto de datos de capacitación y, en segundo lugar, si se ven comprometidos, pueden compartir esos datos confidenciales con otros.
Proporcionado por La Conversación