***Puede ser utilizada para acciones altamente destructivas: Octavio Islas; “si no se regula y no se hace en este momento las preguntas éticas, filosóficas y técnicas, la Inteligencia Artificial puede salir mal”: Carlos Nandayapa
Valle de México, a 25 de septiembre del 2023.- “Armamento y actores maliciosos podrían utilizar IA para acciones altamente destructivas. Al igual que con las armas nucleares y biológicas, un actor irracional o malévolo es suficiente. Por ejemplo, los métodos de aprendizaje de refuerzo profundo pueden ser han aplicado al combate aéreo, y las herramientas de descubrimiento de drogas de aprendizaje automático podrían usarse para construir armas químicas. Desinformación, información errónea y contenido persuasivo generado por IA podría dañar mucho a la sociedad”, señaló el doctor Octavio Islas Carmona, coeditor de la revista Comunicar, en conexión vía zoom desde España, en la en la conferencia magistral Reflexiones éticas sobre el uso de la Inteligencia Artificial en la Comunicación.
En la 18ª Semana de Comunicación La Inteligencia Artificial en la Comunicación: retos y oportunidades, inaugurada en el Auditorio Miguel de la Torre de la Facultad de Estudios Superiores Acatlán, Islas Carmona agregó que “la propia IA podría generar argumentos persuasivos que invoquen fuertes respuestas emocionales. Juntas, estas tendencias podrían socavar la racional toma de decisiones de la colectividad, radicalizando a las personas”.
Antes, el maestro Carlos Nadayapa Hernández, secretario de Asuntos Académicos Estudiantiles de Acatlán resaltó que la conjunción de esfuerzos de profesores, alumnos y funcionarios propiciaron la realización de actividades relacionados con la comunicación, particularmente con la Inteligencia Artificial.
Al relatar los cambios en el mundo con la aparición del Internet, al finalizar la década de los noventa del pasado siglo, Nandayapa Hernández indicó que “con la Inteligencia Artificial en unos cuantos meses hemos presenciado un boom, herramientas como ChatGPT, entre otros desarrollos han venido a transformar el mundo que conocemos. La Inteligencia Artificial vino para quedarse; a transformar nuestras vidas. En ese contexto es plausible que el programa de Comunicación traiga un tema vigente, los retos y oportunidades de la Inteligencia Artificial”.
Del mismo modo, el funcionario añadió que la Inteligencia Artificial “tiene el potencial de generar un fuerte apoyo para nosotros, pero si no se regula y no se hace en este momento las preguntas éticas, filosóficas y técnicas, la Inteligencia Artificial puede salir mal”.
Por su parte, la licenciada Ariadna Uribe Ortiz, jefa del Programa de Comunicación mencionó que “la Inteligencia Artificial está transformando la comunicación en la sociedad actual promoviendo la discusión sobre los cambios en la calidad y la naturaleza de nuestras interacciones personales, su uso ético y adecuado en contextos como la educación, la investigación y la práctica profesional de la comunicación”.
Uribe Ortiz anunció la participación “de más de 40 especialistas de diversas áreas de conocimiento, empresas de comunicación e instituciones públicas, expertos en periodismo, comunicación organizacional, marketing digital, comunicación política, e-learning, nuevas tecnologías y ciberperiodismo participarán con tres conferencias magistrales, tres conversatorios, tres mesas redondas, dos paneles y una charla. Además, como parte de las actividades centrales se impartirán 27 talleres, donde la comunidad tendrá la oportunidad de interactuar con 25 especialistas”.
Atención especial al IA
Desde España, Islas Carmona ofreció un panorama de los principales actores en el plano internacional, en la conferencia Reflexiones éticas sobre el uso de la Inteligencia Artificial en la Comunicación, donde hizo algunos señalamientos que deben tener toda la atención de ciudadanos y de los gobiernos, “los sistemas de IA se entrenan utilizando objetivos medibles. Por ejemplo, los sistemas de recomendación de IA están capacitados para maximizar el tiempo de visualización y las métricas de tasa de clics. El contenido en el que es más probable que las personas hagan clic no es necesariamente el mismo que mejorará su bienestar”, del debilitamiento acotó: “si se delegan tareas cada vez más importantes a las máquinas, la humanidad pierde la capacidad de autogobernarse y se vuelve dependiente de las máquinas. El debilitamiento reduciría el control de la humanidad sobre el futuro”.
Respecto al bloqueo, el master en comunicación y desarrollo explicó que “los sistemas altamente competentes podrían otorgar a pequeños grupos de personas enorme cantidad de poder. Los regímenes autoritarios podrían perpetuarse a través de la vigilancia generalizada y censura opresiva”, en cuanto a las metas emergentes, comentó que las capacidades y funcionalidades novedosas pueden surgir de forma espontánea en actuales sistemas de IA, incluso, cuando las capacidades no fueron anticipadas por los diseñadores del sistema. Si no conocemos las capacidades que poseen los sistemas se vuelven más difíciles controlarlos o implementarlos de manera segura. También pueden surgir nuevos objetivos en el sistema. En sistemas adaptativos complejos, por ejemplo, surgen objetivos como la autoconservación”.
Del engaño, Islas Carmona explicó que “en teoría, los futuros sistemas de IA podrían ser engañosos no por malicia, sino porque el engaño puede ayudar a los agentes a alcanzar sus metas. Podría ser más eficiente obtener la aprobación humana a través del engaño que ganarla legítimamente”. Y, de los comportamientos de búsqueda, el conferenciante dijo que “las empresas y los gobiernos tienen fuertes incentivos económicos para crear agentes que puedan lograr un amplio conjunto de objetivos. Dichos agentes tienen incentivos instrumentales para adquirir poder. Ello los hace más difíciles de controlar”.