La inteligencia artificial ya afecta a muchos aspectos de nuestras vidas, y esto es así desde hace décadas. Para bien o para mal, no es algo que vaya a cambiar. Pero conforme la IA se vuelve cada vez más potente y se integra de forma más profunda en la estructura de nuestra realidad cotidiana, es crucial que las empresas valoren de forma realista todo su potencial como herramienta y como amenaza.
La IA permite llevar a cabo acciones a gran escala más rápido, ya sea con buenas o malas intenciones.
La difusión del aprendizaje automático en las empresas hace que resulte apetecible como herramienta y como objetivo.
Se habla tanto de las capacidades de la IA que es posible que los riesgos que conlleva queden en segundo plano.
El alcance de las amenazas emergentes es enorme y variado.
Para combatir las amenazas generadas por la IA, se necesitarán sistemas de seguridad nuevos basados en esta tecnología.
Parte del problema a la hora de prever las implicaciones reales de la IA generativa es el sensacionalismo con el que se está abordando y lo muchísimo que se habla de ella. El propio término se ha convertido en una especie de cliché. ¿Quiere llenar un auditorio en un evento tecnológico? Incluya la palabra «IA» en el título de la presentación. ¿Quiere resaltar una función de aprendizaje automático de su software? Comercialícela llamándola «IA». Por desgracia, de este modo se acaba perdiendo de vista la realidad de la tecnología: se habla de forma sensacionalista tanto de sus ventajas como de sus peligros y, al mismo tiempo, mucha gente se acaba cansando del tema.
A esto se suma el hecho de que muchas personas (sobre todo las que tienen menos conocimientos técnicos) no entienden exactamente qué es la IA.
Dicho de manera sencilla, la inteligencia artificial es justo lo que sugiere su nombre: el uso de sistemas informáticos para simular los procesos de la inteligencia humana.
Por ejemplo, el procesamiento del lenguaje, el reconocimiento del habla, los sistemas expertos y la visión automática.
Sistemas informáticos gobernados por algoritmos que les permiten aprender y adaptarse automáticamente después de haber sido entrenados con un conjunto de datos.
Por ejemplo, los algoritmos de recomendación de contenidos, el análisis predictivo y el reconocimiento de imágenes.
Técnica de aprendizaje automático que utiliza capas de algoritmos y unidades de computación para simular una red neuronal como la del cerebro humano.
Por ejemplo, los modelos de lenguaje de gran tamaño, la traducción y el reconocimiento facial.
Content authenticity
Identity manipulation
Phishing with dynamite
Prompt injection
Machine Hallucinations
Attack sophistication
Custom malware
Poisoned data
Privacy leaks
Autenticidad de los contenidos
La IA generativa permite crear copias muy realistas del contenido original. Esta capacidad, además de plantear posibles riesgos relativos a la propiedad intelectual para las empresas que generen contenidos con la IA, ofrece a los ciberdelincuentes la posibilidad de robar todo tipo de datos, crear copias realistas de ellos y hacerlas pasar por creaciones originales o bien utilizarlas para perpetrar otros ataques.
Manipulación de identidades
La IA generativa puede crear imágenes y vídeos ultrarrealistas en cuestión de segundos, e incluso modificar vídeos en directo según se generan. Esto puede minar la confianza en diversos sistemas esenciales (como el software de reconocimiento facial o los vídeos utilizados como pruebas en el ámbito jurídico, además de poder utilizarse como arma de desinformación política) y hacer que prácticamente todas las formas de identidad visual dejen de ser fiables.
Phishing con dinamita
Los atacantes pueden utilizar herramientas de IA generativa para simular rostros, voces y estilos de escritura con un gran nivel de realismo, así como para emular identidades de marca o corporativas con el fin de lanzar ataques de phishing muy eficaces y difíciles de detectar.
Inyección de prompts
Como muchas empresas utilizan modelos de IA generativa listos para usar, podrían estar exponiendo la información empleada para entrenar o dar instrucciones a su instancia a ataques de inyección que los ciberdelincuentes ajustan para dirigirlos contra modelos populares. Sin protecciones rigurosas y actualizaciones frecuentes, un ataque al modelo de base podría poner en peligro a cualquier empresa que utilice dicho modelo.
Alucinaciones artificiales
Aunque en general la IA es capaz de producir textos escritos u orales a gran velocidad, no siempre funciona bien. Esto resulta problemático en particular para las empresas que recurren a la IA para generar contenido informativo o de asistencia para los usuarios, así como para las que usan el aprendizaje automático para detectar amenazas, pues en estos casos los resultados anómalos pueden salir especialmente caros.
Ataques sofisticados
Como la IA escribe código funcional a una velocidad sobrehumana, podría utilizarse para lanzar ataques con una rapidez y un nivel de complejidad sin precedentes. Además, la IA se podría utilizar para detectar vulnerabilidades en un código expuesto y podría ampliar el alcance de los atacantes mediante la eliminación de las protecciones.
Malware personalizado
Aunque los modelos de lenguaje de gran tamaño (LLM) más utilizados tienen ciertas protecciones para evitar que los usuarios creen código malicioso, los ciberdelincuentes más avanzados saben cómo sortearlas o superarlas. Además, es posible despojar los modelos robados o copiados de dichas protecciones, lo que permite generar con rapidez ataques prácticamente indetectables y muy personalizables.
Datos envenenados
Los ataques no tienen por qué aprovechar la IA en sí. En ocasiones, lo que hacen es atacar los datos utilizados para entrenar un modelo de aprendizaje automático con el fin de falsear los resultados. Después, esto podría aprovecharse para crear vulnerabilidades dentro del propio modelo (por ejemplo, para falsificar una secuencia de ADN en una base de datos de delincuentes) o simplemente para producir resultados que perjudiquen a la organización atacada.
Filtraciones de datos confidenciales
Cuando la IA se entrena con datos confidenciales o maneja este tipo de información, esta podría verse expuesta, ya sea debido a un fallo, como ha ocurrido con varios de los principales modelos comerciales, o a causa de un ataque dirigido.
Hemos preguntado a ChatGPT cuáles son las principales amenazas que supone la IA generativa. Esta ha sido su respuesta:
Aunque la IA generativa ofrece un potencial increíble en términos de innovación y creatividad, también presenta sus propios retos y amenazas en el ámbito de la ciberseguridad. Los aspectos clave son los siguientes:
Las características que hacen de la IA una herramienta útil para la ciberdelincuencia pueden (y deben) utilizarse para reforzar las medidas de ciberseguridad. De este modo, no solo las organizaciones podrán desarrollar tecnologías de ciberseguridad ágiles y más eficaces, sino que además abordarán mejor las vulnerabilidades humanas.