«…Leer esto reafirma nuestra creencia de que no podemos separar el progreso tecnológico de la naturaleza humana. El uso y fin de las herramientas no puede ser otro que el de contribuir al desarrollo de la humanidad, de acuerdo con ella y la función del hombre en la tierra…»
Jorge Puigbó
El duda o incertidumbreSon lo contrario de certeza o seguridad. A todos nos ha desconcertado que nuestras buenas intenciones sean manipuladas por los medios de comunicación y especialmente por los autores. noticias falsas está floreciendo en las redes sociales de Internet. Información y desinformación es lo que recibimos todos los días, imposibilitando en ocasiones separar “la paja del trigo”, pero sin embargo, debemos procurar que la verdad prevalezca. Es una paradoja, y siempre lo ha sido, que la búsqueda de nuevas armas de guerra de mayor poder destructivo y de todo tipo, liderada principalmente por militares de todo el mundo, nos ha llevado a nuevos descubrimientos. el beneficio de la humanidad y que los inventos creados por eminentes científicos en el campo civil se usaron con fines bélicos, el último ejemplo de la dinamita de Nobel. Esta es la dualidad interna de nuestra naturaleza humana con la que tenemos que lidiar todos los días.
En particular, la noticia aparecida en varios medios y diarios importantes en los últimos días y que hace referencia al hecho ocurrido los días 22 y 23 de mayo no es por su contenido escandaloso, sino por su fragancia, cómo estamos en el mundo. espectáculos queda también atrás, su certeza o negación se da en un sentido muy vago. Para ello, tomamos el titular del diario ABC del 23.02.2019: Un dron militar estadounidense controlado por IA ‘mata’ a su operador en una simulación: «Se utilizaron estrategias extremadamente inesperadas». Solo las comillas advierten que se trata de un experimento virtual con resultados inesperados, ya que el dron de inteligencia artificial ejerció en exceso sus instrucciones, y creo que su operador fue un factor en la trama en contra de sus objetivos, llamándolo «terminación» sin más preámbulos. . Tanta reflexión y tanta incertidumbre deja esta noticia que nos permitiremos copiar otro párrafo: “…Sobre esto dijo el Jefe de Pruebas y Operaciones de Inteligencia Artificial de la USAF, Coronel Tucker “Cinco” Hamilton. (Fuerza Aérea de EE. UU.) durante Cumbre de Capacidades Aéreas y Espaciales para la Lucha por el Futuro se celebró en Londres hace unos días. 70 oradores y más de 200 delegados del mundo empresarial, militar y académico están preocupados por este tema…». La persona que dirigió la conferencia no era una persona sin formación o práctica, era muy complicado y con estrictas medidas de seguridad. Fue el coronel jefe del departamento militar el que aportó, y las personas que asistieron al evento no fueron importantes, y mucho menos porque fue en la “Royal Aeronautical Society” donde se realizaron una serie de conferencias, que algunos calificaron de históricas.
Esto preocupa a los pensadores, el trabajo de los militares En su afán por crear armas cada vez más sofisticadas y mortíferas, ignoran las cuestiones éticas que rodean su control y uso. Estos enfoques no son nuevos, son relativamente nuevos. aplicación de IA Este enfoque de las armas ha existido durante mucho tiempo, lo nuevo es que hoy, cuando se combina con las nuevas tecnologías, nos presenta un mundo con un futuro oscuro. Un ejemplo de lo que estamos hablando es el desplazamiento y el autocontrol basado en la teoría del Enjambre, que si está equipado con la tecnología adecuada, les permite volar juntos y evitar colisiones manteniendo la comunicación. continua entre ellos, así como una amplia visualización y control del entorno. China ya ha presentado el primer grupo Drones con IA puede volar de forma autónoma a través del bosque de bambú sin estrellarse. La mayor preocupación es establecer la capacidad de los drones para identificar y seleccionar libremente un objetivo enemigo, que el resto del escuadrón descarta de inmediato, lo que permite que cada uno seleccione el suyo con total independencia del comando humano. Hamilton dijo en el texto de su conferencia: «… sus dudas sobre confiar en la inteligencia artificial y la simulación demuestran que si no se habla de ética, no se puede tener una conversación sobre inteligencia artificial y aprendizaje automático y autonomía. . ..» Al leer esto, reafirmamos nuestra creencia de que el progreso tecnológico no puede separarse de la naturaleza humana. El uso y finalidad de las herramientas no puede ser otro que el de contribuir al desarrollo de la humanidad, de acuerdo con ella y la función del hombre en la tierra. Hamilton luego trató de minimizar el contenido y su impacto en una declaración, diciendo que la simulación falsa de drones de IA no era una simulación del mundo real, sino un experimento mental hipotético basado en escenarios hipotéticos y posibles resultados. «Nunca hemos realizado este experimento y no necesariamente entendemos que este es un resultado confiable.«, ofuscando el asunto con esta declaración. Obviamente, se trataba de un experimento virtual, y los resultados fueron sorprendentes. La portavoz de la Fuerza Aérea de los EE. él. drones de IA y está comprometido con el uso ético y responsable de la tecnología de inteligencia artificial», «Parece que los comentarios del coronel se sacaron de contexto y pretendían ser anecdóticos». publicó un resumen de la toma de decisiones de inteligencia artificial del coronel Hamilton viola cualquier principio moral: ¿De quién será la responsabilidad?
El viejo proverbio dice exactamente de qué se trata: «La culpa no es del ciego, sino del que le dio el palo”, las herramientas son creadas por el hombre para utilizarlas en su propio beneficio, esto es muy claro y se ha dicho una y otra vez a lo largo de la historia. Una ametralladora tiene un propósito: matar, un cuchillo tiene muchas funciones, pero también se usa para atacar, la persona que lo usa es el único responsable de las acciones realizadas con él. Debemos entender que lo que llamamos técnica es la exteriorización y materialización de una cualidad humana, la capacidad de actuar. cambio en el entorno natural, de su entorno, buscando alargar la supervivencia de su especie. Tsvetan Todorov publicó en el diario español El País el 13 de agosto de 2012 «¿Solidaridad natural?» en su artículo titulado: «…El salvaje bueno es tan imaginario como el salvaje malo. Ambos tipos de comportamiento tienen su origen en nuestra naturaleza animal, pero el predominio de uno u otro depende de la situación. El error, en primer lugar, es ignorar uno en detrimento del otro…».
Jorge Puigbó