Las tecnologías de Inteligencia Artificial (IA) están alterando numerosas industrias, pero al menos en la mayoría de los casos, podemos ver cómo serán más útiles que dañinas a largo plazo. Sin embargo, estas nuevas herramientas también están abriendo muchas nuevas oportunidades para tipos nefastos. A continuación, veremos cómo esta tecnología puede ser utilizada por los hacker para fines maliciosos.
1. IA de lenguaje natural para poderosos ataques de phishing
Ser capaz de comprender y producir el lenguaje humano natural ha sido uno de los principales objetivos de la investigación de IA desde sus inicios. Actualmente, tenemos producción de voz sintética, chatbots altamente sofisticados, generadores de texto en lenguaje natural y muchas más tecnologías relacionadas impulsadas por IA.
Estas aplicaciones son perfectas para ataques de phishing, donde los hackers se hacen pasar por entidades legítimas y sus representantes como una forma de obtener información confidencial de las personas. Con estas nuevas tecnologías, podría hacer que los agentes de IA se hagan pasar por personas en masa a través de correo electrónico, llamadas telefónicas, mensajería instantánea o en cualquier otro lugar donde los humanos hablen entre sí a través de un sistema informático.
A diferencia del phishing que conocemos, esto sería como el “spear” phishing mejorado, donde los intentos están dirigidos contra individuos específicos con información sobre ellos en particular para que la estafa sea más efectiva. Por ejemplo, el software de inteligencia artificial podría hacerse pasar por el jefe de alguien y pedir que se ingrese dinero en una cuenta en una variante de phishing conocida como fraude del CEO.
2. Ingeniería social con deepfake
La ingeniería social es una práctica dentro del hacking que se enfoca en las debilidades de la psicología y el comportamiento humanos para eludir las estrictas medidas tecnológicas de seguridad. Por ejemplo, un hacker podría llamar a la secretaria de una persona importante haciéndose pasar por un trabajador de saneamiento, preguntándole dónde tiran la basura actualmente. Luego, el criminal se dirige a ese lugar para buscar documentos desechados u otras pistas que puedan juntarse para crear exploits.
Los sistemas de aprendizaje profundo que pueden replicar rostros y voces (conocidos como deepfakes) han avanzado hasta el punto en que pueden usarse en tiempo real. Hay servicios en los que puedes enviar muestras de tu propia voz y luego tener texto a voz que suene como tú. En principio, una tecnología como esta podría usarse para clonar la voz de cualquier persona. Entonces todo lo que tendrías que hacer es llamar por teléfono o hacer una videollamada a alguien que se haga pasar por quien quieras, siendo las figuras públicas el objetivo más fácil de todos.
Por ejemplo, Podcastle Revoice es uno de esos servicios que promete "crear una copia digital de tu propia voz" en función de las muestras de voz que envíes.
3. Cracking más inteligente de códigos y descubrimiento automatizado de vulnerabilidades
A los humanos les lleva horas y horas recorrer líneas de código en busca de vulnerabilidades, ya sea para solucionarlas o explotarlas. Ahora hemos visto que los modelos de aprendizaje automático como ChatGPT pueden escribir código y reconocer vulnerabilidades en el código enviado, lo que abre la posibilidad de que la IA pueda estar escribiendo malware más temprano que tarde.
4. Malware que aprende y se adapta a través del aprendizaje automático
La fortaleza clave del aprendizaje automático es cómo puede tomar grandes cantidades de datos y extraer reglas e información útiles de ellos. Es razonable esperar que el futuro malware aproveche este concepto general para adaptarse rápidamente a las contramedidas.
Esto puede conducir a una situación en la que tanto el malware como los sistemas antimalware se conviertan efectivamente en sistemas de aprendizaje automático en guerra que se lleven rápidamente entre sí a niveles más altos de sofisticación.
5. IA generativa para crear datos falsos
Las tecnologías de IA ahora pueden generar imágenes, video, texto y audio aparentemente de la nada. Estas tecnologías han llegado al punto en que los expertos no pueden decir que son falsas (al menos no instantáneamente). Esto significa que se puede esperar una avalancha de datos falsos en Internet en el futuro.
Por ejemplo, los perfiles de redes sociales falsos en este momento pueden ser bastante fáciles de detectar, por lo que evitar las estafas de catfishing o las simples campañas de bots para difundir desinformación no ha sido tan difícil para las audiencias informadas. Sin embargo, estas nuevas tecnologías de IA podrían generar perfiles falsos que son indistinguibles de los reales.
“Personas” con rostros únicos con fotos generadas de toda su vida falsa, información de perfil única y coherente, y redes completas de amigos y familiares compuestas por otras personas falsas. Todos tienen conversaciones entre ellos como personas reales. Con redes de agentes en línea falsos como estos, los actores maliciosos podrían realizar varias estafas y campañas de desinformación. Esto es tan peligroso que hace unos días una empresa perdió millones de dólares en un ciberataque generado con IA, puedes leer los detalles en el siguiente artículo: Un sofisticado ataque con inteligencia artificial permitió robar 25 millones de dólares
¿Es la IA tanto la cura como la enfermedad?
Es inevitable que algunas personas intenten usar cualquier tecnología nueva por motivos maliciosos. Lo que hace que esta nueva generación de tecnología de IA sea diferente es cómo rápidamente va más allá de la capacidad humana para detectarla.
Esto significa, irónicamente, que nuestra mejor defensa contra estas vías de ataque mejoradas por IA serán otras tecnologías de IA que combatan el fuego con fuego. Esto parecería dejarte sin otra opción que ver cómo se pelean y esperar que los "buenos" lleguen a la cima. Sin embargo, hay varias cosas que puedes hacer para mantenerte protegido en línea, evitar el ransomware y detectar estafas en plataformas populares como Facebook, Facebook Marketplace, PayPal y LinkedIn.
Ex ingeniera de software de Google advierte sobre los robots asesinos de inteligencia artificial