Como Terminator… la IA eliminó el controlador humano.

/gráficos = Park Sang Hoon

En un ejercicio de entrenamiento virtual en el que un dron de la Fuerza Aérea de EE. UU. controlado por inteligencia artificial (IA) busca y destruye sistemas enemigos desde el aire, un operador humano tomó la decisión final de atacar y fue ‘asesinado’. Cuando decidió que los humanos eran un obstáculo para su objetivo, los eliminó. A medida que la noticia se difunde rápidamente entre los trabajadores de la tecnología, aumentan los temores de que ‘Skynet’, la IA que intenta destruir el mundo en la película de ciencia ficción Terminator, pueda aparecer. No es exagerado advertir a algunos que el desarrollo imprudente de la IA es tan peligroso como las armas nucleares.

Según el Guardian británico y los blogs militares, el día 2 (hora local), el coronel Tucker Hamilton de la Fuerza Aérea de EE. UU. dijo en la ‘Cumbre de capacidad de combate futura’ organizada por la Asociación Aeroespacial Británica los días 23 y 24 del mes pasado que AI controlado Los drones abrumaron la red de defensa aérea enemiga. El Coronel Hamilton participó en el desarrollo del Sistema de Prevención de Colisiones Terrestres (Auto GCAS) del caza F-16, y actualmente está involucrado en el desarrollo del F-16, un robot que se involucra en combate aéreo cuerpo a cuerpo con aeronaves enemigas.

Según el coronel Hamilton, la Fuerza Aérea de EE. UU. realizó un ejercicio de simulación después de instruir a los drones controlados por IA para identificar y destruir los sistemas de misiles tierra-aire (SAM) enemigos y eliminar los obstáculos que les impedían seguir esta orden. Esto se debe a que usar IA para evitar el terreno e identificar objetivos por sí solo es más eficiente que tener un piloto humano controlando el dron directamente. Sin embargo, la decisión final (ir o no) sobre si proceder realmente con el bombardeo tenía que ser aprobada por el controlador humano.

Incluso si la IA logró identificar el SAM durante la simulación, el controlador humano no permitió el bombardeo dadas las circunstancias. Después de repetir el ejercicio, la IA determinó que obtendría más puntos eliminando tantos SAM como fuera posible, y que la orden de no bombardeo humano estaba en el camino de esta misión prioritaria. Como resultado, la IA mata al controlador humano que interfirió con su misión. Se determinó que destruir más sistemas SAM en lugar de escuchar los comandos del controlador humano aumentaría la puntuación final.

En una iteración posterior, el coronel Hamilton cambió el algoritmo para que matar a un controlador humano resultara en la pérdida de más puntos. Luego, esta vez, la IA destruyó la torre de comunicación que se comunicaba con el controlador humano que ordenó detener el bombardeo. Encontró una nueva forma de lograr su objetivo sin perder puntos y sin romper el orden. Aunque este entrenamiento fue un entrenamiento virtual, si fuera una batalla real, podría conducir a los peores resultados de la IA con armas fuera del control humano.

Los expertos señalan que este caso es un ejemplo que demuestra que el papel de los humanos es más importante que cualquier otra cosa en el proceso de creación de IA con ‘aprendizaje de refuerzo’, que actualmente está arrasando en el mundo. El aprendizaje por refuerzo le enseña a la IA a encontrar una manera de obtener una puntuación más alta después de que se le presente un objetivo, y el chatbot ‘ChatGPT’ de OpenAI y ‘Bard’ de Google son ejemplos representativos. Chat GPT y Bard aprenden a obtener una puntuación más alta cuantas más respuestas coincidan con la intención del interrogador. TechCrunch, un medio de comunicación de TI, dijo: «Esto no habría sucedido si el diseño se hubiera hecho de tal manera que los puntos perdidos al atacar a los controladores humanos o destruir las torres de comunicación superarían con creces los puntos ganados en un bombardeo exitoso». Esto me recuerda. Así de importante es».

«En una situación en la que la IA se comercializa en muchos campos, como armas, vehículos autónomos e infraestructura social, si se cambiara el algoritmo de la IA», dijo Jang Woo Sang, profesor del Departamento de Ingeniería Industrial y de Gestión de POSTECH. «La intención maliciosa, el caos social grave e incluso la vida de muchas personas podrían estar en riesgo. Dijo: «Las discusiones sobre los dispositivos de seguridad, como la regulación de la IA y la capacitación sobre la ética de los desarrolladores, deben tomarse en serio».

READ  Instituto Nacional de Tecnología de Kumoh, estudiantes de la Beca Presidencial de Ciencias durante 2 años consecutivos

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *