Desde su aparición a finales de 2022, los modelos de lenguaje como ChatGPT han abierto un mundo de posibilidades al poner herramientas avanzadas de inteligencia artificial (IA) al alcance de todos.
En este contexto, la IA y los grandes modelos de lenguaje (LLM) se han convertido en protagonistas recurrentes en las discusiones sobre ciberseguridad. Pero, ¿estamos realmente ante una revolución que lo va a cambiar todo? La respuesta es no, o al menos no todavía.
Fernando Anaya
-
Country manager de Proofpoint para España y Portugal
Estas tecnologías tienen un potencial indudable para combatir las ciberamenazas: pueden analizar grandes cantidades de datos para detectar anomalías, tendencias y comportamientos que indican posibles ataques.
En la teoría, esto suena prometedor, ya que podrían identificar patrones que serían difíciles de detectar para un humano. Además, son excelentes en cuanto a recopilar información compleja y presentarla de manera más comprensible, lo que puede ser útil para recoger datos técnicos y presentarlos de forma que puedan ser entendidos por personas sin conocimientos especializados.
Sin embargo, es importante tener en cuenta sus limitaciones. Estas tecnologías pueden requerir una gran cantidad de recursos computacionales y, dependiendo del tamaño y la complejidad del modelo de aprendizaje, pueden ser más lentas que otros enfoques tradicionales. Por ejemplo, a la hora de bloquear mensajes maliciosos, otras técnicas como el análisis de la reputación de IP, el análisis estático o el sandboxing pueden hacerlo de manera más rápida y efectiva.
Esto significa que, aunque la IA puede ser útil para detectar amenazas emergentes y desconocidas, no siempre será la opción más eficiente.
Otro aspecto crucial es que los modelos necesitan una gran cantidad de datos de alta calidad para aprender de diferentes ejemplos y patrones, y así saber adaptarse a nuevas condiciones. Por lo tanto, si los datos de entrenamiento son limitados o de baja calidad, el rendimiento del modelo puede verse afectado.
En lo referente a los ciberataques, la preocupación principal con la llegada de ChatGPT ha sido su posible uso en campañas de phishing. Sin embargo, hasta ahora, esto no es más que una exageración.
Aunque la calidad de los intentos de phishing ha mejorado, especialmente en idiomas distintos al español y al inglés, el volumen de estos ataques no ha aumentado significativamente.
Además, muchos correos electrónicos de ingeniería social no están diseñados para ser ‘perfectos’, sino que se escriben intencionalmente con errores para incitar a las personas a interactuar, por lo que la ayuda de la IA no tiene mucho sentido en este caso.
En conclusión, aunque la IA y los LLM tienen un gran potencial en el campo de la ciberseguridad, no debemos dejarnos llevar por la moda. No son una solución mágica para todos los problemas, pero sí una herramienta que puede ser muy útil si se usa de manera estratégica y adaptada a cada caso.
Como usuarios, debemos estar informados y entender que, aunque estas herramientas pueden ayudarnos a fortalecer nuestras defensas digitales, son solo una pieza del puzzle. A medida que estas tecnologías continúan evolucionando, también lo harán las amenazas que enfrentamos.
La clave para una ciberseguridad efectiva no reside en una sola herramienta, sino en una combinación de medidas de seguridad, educación continua y una comprensión clara de las amenazas emergentes.
https://imagenes.20minutos.es/files/image_1920_1080/uploads/imagenes/2024/07/29/inteligencia-artificial.jpeg
#Nos #salvará #inteligencia #artificial #los #peligros #red #verdad #sobre #uso #ante #ciberamenazas
Source link