[보안뉴스 문가용 기자] La inteligencia artificial está revolucionando la tecnología. Tiene significados tanto positivos como negativos. Sin embargo, los expertos en seguridad no están tan contentos con el desarrollo de la inteligencia artificial. Esto se debe a que con el desarrollo de la inteligencia artificial, el nivel y la frecuencia de los ataques cibernéticos pueden cambiar a una dimensión diferente a la anterior. Ya sea un ataque por dinero o un ataque para difundir un mensaje político, es lo mismo.
[이미지 = gettyimagesbank]
Doug Saylors, socio de ISG, una firma de consultoría de seguridad, cree que la nueva amenaza que plantea la inteligencia artificial será una versión más avanzada de las diversas amenazas cibernéticas que enfrentamos hoy. «En los últimos tres a cinco años, la actividad de las organizaciones APT patrocinadas por el estado ha aumentado significativamente. Al mismo tiempo, las habilidades de otras organizaciones de piratería se han nivelado. Creo que debido a la inteligencia artificial algo similar volverá a suceder».
«Todavía queda un largo camino por recorrer antes de que las máquinas de ataque autónomas no puedan ser controladas por humanos», dijo Claire Walsh, directora de educación del Instituto de Análisis. «Las máquinas por sí solas aún no pueden amenazar a los humanos. Es más importante cuáles son las intenciones del humano que controla la máquina. Incluso entonces, hay muchas personas que encuentran formas de encarnar el mal a través de las máquinas. , y debido a que existen, las máquinas pueden ser una amenaza. para nosotros.»
Los expertos creen que si aparece una máquina que ataca a los humanos con sus habilidades creativas, probablemente tomará una forma muy diversa. “Sin embargo, creo que habrá una división del trabajo en la que algunas máquinas estarán a cargo de las decisiones y otras las implementarán. O creo que habrá muchas máquinas que se estropearán porque tienen que hacer algo. Ni siquiera comprobé». La explicación de Walsh. «Pero esta imaginación es aún más ciencia ficción. Lo que está claro es que no nos daremos cuenta de la creciente amenaza de la inteligencia artificial hasta que se produzca un daño grave. Todavía lo hacemos».
Fortalecimiento de hábitos y cultura de ciberseguridad
«Ahora no es el momento de temer que la inteligencia artificial se desvíe y ataque a los propios humanos», subraya Claire Vandenbroek, experta en ciberseguridad del servicio de gestión de TI TSG. «De lo que debemos preocuparnos en este momento es de que las personas que no deberían tener la maravillosa tecnología de la inteligencia artificial la tendrán. Definitivamente es algo que se hará realidad en algún momento».
Por lo tanto, Vandenbroeck enfatiza que la prioridad no es centrarse en la tecnología de inteligencia artificial, sino desarrollar una sólida cultura de seguridad de la información y respeto a la privacidad para que todos puedan sentirse naturales y seguros en la vida cotidiana y poder trabajar correctamente. «Tienes que aceptar el cambio tú mismo desde arriba. No importa cuánto lo empuje con palabras a los empleados, es inútil. Si todos hacen de la seguridad un hábito, las personas que usan inteligencia artificial. Los que desarrollan, usan y implementarlos entrenará automáticamente la inteligencia artificial de manera segura. Esto reduce la posibilidad de que la persona equivocada llegue a la IA».
estrategia de ataque
«El concepto de inteligencia artificial que ataca a los humanos, por ahora, comienza con algoritmos entrenados para encontrar rápidamente vulnerabilidades por sí mismos y desarrollar exploits sobre la marcha», dice Sellers. «Los algoritmos de IA específicos para este comportamiento no solo generarán diferentes códigos de ataque, sino que también aumentarán la efectividad del ataque al distribuirlos a través de repositorios, etc., e incluso al piratear la tecnología de IA integrada en la red de la víctima o sistema. Intentaré hacer más que «.
Sellers señaló que si bien la piratería de inteligencia artificial es un caso extremo que es difícil de imaginar en este momento, es motivo de preocupación para cualquier empresa u organización que tenga algo que un atacante podría robar. «Al final del día, no es ‘qué hacer’ lo que les importa a los atacantes, es ‘qué hacer’. Si quieren algo, lo harán sin importar nada».
Salvo casos tan extremos, la ‘inteligencia artificial que encuentra y explota automáticamente las vulnerabilidades’ ya existe en el mundo. ChatGPT y tecnologías similares ya han realizado varios experimentos para crear herramientas de piratería a través de varios experimentos, y hay casos exitosos. «No digo que los grandes modelos de lenguaje sean necesariamente explotados. Solo significa que podría haber una oportunidad para que un ataque sea fácil, por lo que debemos tener eso en cuenta al desarrollar inteligencia artificial».
Al mismo tiempo, Walsh enfatiza que la comunidad legal debería observar más de cerca la situación experimental que rodea a la inteligencia artificial. «Cuando el código de inteligencia artificial creado experimentalmente en el laboratorio se libera para que funcione en el mundo real, la comunidad legal, más que nadie, tiene que intervenir y experimentar con la seguridad y la protección. La profesión legal debe evaluar si es aceptable que aparezca en la sociedad y establecer estándares. Por lo tanto, los desarrolladores deben ser transparentes sobre el estado y el progreso del desarrollo. Y los datos utilizados para el entrenamiento de IA también deben divulgarse de manera transparente.
Preparación y entrenamiento
A continuación, los marineros expresan su opinión de que la educación para los desarrolladores debe continuar ahora. «Los desarrolladores tienen que entender completamente lo que significa adoptar la tecnología de IA a nivel organizacional. No puedes decir que sabes cómo manejar la inteligencia artificial solo porque puedes manejar diferentes tareas más rápido. Puedes decir que estás tratando con inteligencia artificial solo cuando puede usar la inteligencia artificial de manera segura y realizar controles de seguridad paso a paso. Los desarrolladores primero deben aprender cómo las empresas entienden los beneficios y los riesgos de la inteligencia artificial. Considere ambos.
Sellers enfatiza que el código generado por inteligencia artificial debe someterse a las mismas pruebas y evaluaciones que el código generado por humanos. Aquí se incluyen tanto el análisis estático como el dinámico. «El hecho de que la IA genere código no significa que sea perfecto o que no tenga vulnerabilidades. Más bien, el código generado por IA es actualmente más vulnerable que el código generado por humanos. Vulnerabilidades Difundir código lleno de .
Por: John Edwards, columnista de TI
[국제부 문가용 기자([email protected])]
www.boannews.com) Prohibida la reproducción-redistribución no autorizada>