jueves, 14 de diciembre de 2023

Una pregunta crucial sobre las 'Inteligencias Artificiales' que ni nos estábamos haciendo...

    
Ya hemos tratado del tema con algunas claras conclusiones, expuestas antes, y quedan todavía ciertos aspectos por desarrollar aquí ahora: lo más peligroso de las últimas herramientas "inteligentes" no es que nos distraigan, sino que nos inhabilitan para la práctica de concentración/distracción; las IA son incapaces de algo como es el hacerse preguntas, imprescindible para la inteligencia; están sólo programadas para respondernos de forma rápida y automática sin dudar, siempre (e incluso se supondría que optimizada mente...), con o sin fundamento adecuado... Pero hay más: 
 
 
"La casi implosión de OpenAI, líder mundial en el floreciente campo de la inteligencia artificial, reveló un conflicto dentro de la organización, y de la comunidad en general, sobre la velocidad a la que debe avanzar la tecnología y también sobre si desarrollarla de manera más lenta ayudaría a hacerla más segura.

Soy profesor tanto de inteligencia artificial como de ética de la IA y creo que este planteamiento del problema omite la pregunta crucial sobre qué tipo de inteligencia artificial es el que aceleramos o desaceleramos.
 
 
En mis 40 años de investigación sobre procesamiento del lenguaje natural y la creatividad computacional en el campo de la IA, fui pionero en una serie de avances en aprendizaje automático que me permitieron construir el primer traductor de idiomas en línea a gran escala del mundo, el cual engendró en poco tiempo programas como Google Translate y Bing Translator de Microsoft. Es complicado encontrar argumentos en contra del desarrollo de las 'inteligencias' artificiales para traducción: reducir los malentendidos entre culturas tal vez sea una de las cosas más importantes que puede hacer la humanidad para sobrevivir a la polarización geopolítica cada vez mayor.

Sin embargo, la IA también tiene un lado oscuro. Vi cómo muchas de las mismas técnicas —inventos de nuestra comunidad de procesamiento del lenguaje natural y aprendizaje automático con fines benéficos— se utilizaban entre las "redes sociales" y los 'motores de búsqueda' o recomendaciones para buscar amplificar la polarización en los prejuicios y desinformar de un modo que plantea cada vez más amenazas existenciales para la democracia. 
 
 
En fechas recientes, a medida que la inteligencia artificial se ha vuelto más poderosa, hemos visto cómo la tecnología ha llevado las ciberestafas a un nuevo nivel con voces 'deepfakes' (o ultrafalsas) de colegas o seres queridos utilizadas para robarte dinero.

Las inteligencias artificiales manipulan a la humanidad. Y están a punto de ejercer un poder todavía más inconcebible para manipular nuestro inconsciente, algo que apenas se ha insinuado con los grandes modelos lingüísticos como ChatGPT. El temido "momento Oppenheimer" es real.
 
 
Sin embargo, el dilema de “velocidad versus seguridad” no es lo único que nos distrae de las cuestiones importantes, y que oculta las amenazas reales que se ciernen sobre nosotros.

Uno de los pasos clave en los círculos de seguridad de la inteligencia artificial es la “alineación de la IA”, la cual se centra en el desarrollo de métodos para alinear las inteligencias artificiales con los objetivos de la humanidad. Hasta el caos reciente, Ilya Sutskever y Jan Leike, jefe de investigación sobre alineación de OpenAI, codirigían un programa de investigación sobre “superalineación” que intenta resolver una pregunta sencilla, pero de una complejidad significativa: “¿Cómo podemos garantizar que unos sistemas de inteligencia artificial mucho más inteligentes que los humanos cumplan los objetivos humanos?”.
 
 
No obstante, en la alineación de la IA, una vez más, hay un asunto evidente con el que no queremos lidiar. Alineación… ¿con qué tipo de objetivos humanos?

Desde hace tiempo, los filósofos, los políticos y las poblaciones han luchado con las disyuntivas espinosas entre los distintos objetivos. ¿Gratificación instantánea a corto plazo? ¿Felicidad a largo plazo? ¿Evitar la extinción? ¿Libertades individuales? ¿Bien colectivo? ¿Límites a la desigualdad? ¿Igualdad de oportunidades? ¿Grado de gobernanza? ¿Libertad de expresión? ¿Seguridad frente a discursos perjudiciales? ¿Grado de manipulación admisible? ¿Tolerancia de la diversidad? ¿Imprudencia admisible? ¿Derechos versus responsabilidades?
 
 
No hay ningún consenso universal [ni podría jamás haberlo] sobre dichos objetivos, mucho menos sobre asuntos todavía más detonantes como los derechos a las armas, los derechos reproductivos o los conflictos geopolíticos.

De hecho, la saga de OpenAI demuestra ampliamente cuán imposible es alinear los objetivos, incluso entre un grupo diminuto de líderes del mismo. ¿Cómo es posible que la inteligencia artificial se alinee con todos los "objetivos de la humanidad"...?
 
 
Si este problema parece obvio, ¿por qué la alineación de la IA tiene tanto peso en la comunidad de la IA? Es probable que se deba a que el paradigma del modelo dominante en la inteligencia artificial es definir una función matemática que nos sirva como “función objetivo”, es decir, un objetivo cuantitativo o un norte que deba buscar la inteligencia artificial. En todo momento, el cerebro artificial de una IA toma miles, millones o incluso miles de millones de pequeñas decisiones para maximizar la consecución de este objetivo. Por ejemplo, un estudio reciente mostró cómo una IA médica que busca automatizar una fracción de la carga de trabajo de las radiografías de tórax detectó el 99 por ciento de todas las radiografías de tórax anormales, una cantidad superior a la de los radiólogos humanos.

Por lo tanto, los investigadores de la inteligencia artificial estamos muy tentados a plantear todo en términos de una maximización para tal función objetivo; somos un caso típico de "uso por costumbre"... Para conseguir una IA segura, ¡solo debemos maximizar la alineación entre la tecnología y los objetivos de la humanidad! Si tan solo pudiéramos definir una función objetivo clara que mida el grado de alineación con todos los objetivos de la humanidad.
 
 
En la comunidad de la investigación sobre la IA con demasiada frecuencia ignoramos los riesgos existenciales que surgen de la manera en que esta interactúa con la compleja dinámica de los caóticos factores psicológicos, sociales, culturales, políticos y emocionales de la humanidad; los cuales no vienen prolijamente empacados en una simple función matemática.

Las empresas de IA, los investigadores y los reguladores deben acelerar con urgencia la resolución del problema que plantea el funcionamiento que se espera de las inteligencias artificiales frente a tantas inmemoriales disyuntivas entre objetivos opuestos no resueltos y también acelerar el desarrollo de nuevos tipos de inteligencias artificiales que puedan ayudar a resolver estos problemas. Por ejemplo, uno de mis proyectos de investigación incluye una inteligencia artificial que no solo comprueba la información, sino que la reformula en automático para reducir los prejuicios implícitos de los lectores. Acelerar este trabajo es apremiante justo por el avance exponencial de la tecnología de la IA en la actualidad.
 
 
Mientras tanto, debemos desacelerar el despliegue de las inteligencias artificiales que están exacerbando la inestabilidad sociopolítica, como los algoritmos que alinean una tras otra las publicaciones con teorías conspiratorias. En cambio, debemos acelerar el desarrollo de las inteligencias artificiales que ayuden a reducir esos peligrosos niveles de polarización.

Y todos nosotros —los expertos en inteligencia artificial, influentes de Silicon Valley y grandes medios de comunicación que dirigimos las conversaciones cotidianas— debemos dejar de esconder debajo de la alfombra estos desafíos reales por medio de narrativas demasiado simplistas y mal enmarcadas en torno a la aceleración versus la desaceleración de la IA. Debemos reconocer que nuestro trabajo impacta en los seres humanos y los seres humanos son desordenados y complejos en maneras que tal vez una ecuación elegante no pueda reflejar.
 
 
La cultura importa. La IA ya es parte de la vida cotidiana de nuestra sociedad, un hecho que llegará a ser más pronunciado de lo que la mayoría de las personas jamás imaginaron. Ya es demasiado tarde para empezar a darse cuenta de eso. Hagamos que un conflicto en una sala de juntas sea nuestra oportunidad. Es posible soñar a lo grande rápido y frenar la confusión."

(De Kai, profesor de informática e ingeniería en la Universidad de Ciencia y Tecnología de Hong Kong: artículo para el 'The New York Times', 10.12.23)
  

5 comentarios:

  1. ... ... ... [continúa]

    Lo que ocurre en este entorno de ebullición tecnológica genera interrogantes que llaman al conocimiento, y en particular a la filosofía: esa asignatura olvidada que es un arma potentísima del crecimiento personal. Pero ahora la partida se desarrolla en un tablero de ajedrez en el que ya no siempre vamos a ser ganadores. Y para entenderlo debemos alejarnos de percibir la tecnología como si se tratase de una capacidad de gestionar tratamientos masivos de datos, o de hacer cálculos imposibles para la mente humana, debiendo penetrar en el terreno de decisiones que afectan a cada individuo, a cada cultura, y que condicionarán a la humanidad.

    Construimos ya máquinas a las que damos más importancia que a la vida humana o gracias a las cuales subsisten individuos. Ya no pueden desconectarse libremente, y son además objeto de protección jurídica, con nuevos impulsos legislativos e interrogantes bioéticos. Todo ello, nos lleva a una perspectiva de la tecnología que debe transcurrir por la vertiente del bien para la humanidad evitando 'Terminators' por decisiones equivocadas.

    ¿Estamos preparados? Ejemplo cercano es el de la gestión del 'Covid-19', que demostró la incapacidad de reconocer errores de peso por las autoridades. Ahora se necesitará conocimiento y capacidad para rectificar ante dilemas que ya están alejando a muchos del mundo. Hay nuevos analfabetos incapaces de adaptarse a una revolución exponencialmente mayor a las anteriores y no siempre inclusiva.

    Rafael Chelala (director académico del Programa de Innovación en Tecnología de Deusto Business School)

    ResponderEliminar
  2. NECESITAMOS CENTRARNOS MÁS EN EFECTOS SOCIALES DE LA "I.A."

    Pocas personas tolerarían un asistente virtual si tuvieran que suplicarle obsequiosamente cada vez. Estos dispositivos están diseñados para responder órdenes bruscas: "Alexa: ¡el tiempo!" Y esperamos que respondan obedientemente. Lo cual está bien hasta que los llevamos a un hogar con niños pequeños influenciables, quienes pueden aprender rápidamente que ésta es una manera normal de hablar con otras personas, o sea, de manera grosera.

    Esto apunta a un problema potencialmente de gran alcance con la inteligencia artificial (IA). Cuando se trata de cómo afectará la interacción social, una mayoría se centran en la relación entre los humanos y la IA. No están prestando suficiente atención a cómo se tratarán los humanos entre sí en presencia de IA.

    A diferencia de la IA utilizada para desafíos técnicos, otros tipos están destinados al actuar de manera más humana, como brindar psicoterapia. Estas tecnologías inducirán “repercusiones sociales”, que influirán en cómo la gente reacciona y aprende del comportamiento de otras personas. Y esos efectos indirectos podrían afectar a los seres humanos mucho más allá de los involucrados en la interacción original.

    Las personas tendrán cada vez más “co-bots” habilitados para IA en sus teléfonos que les conocerán y ayudarán a relacionarse con los demás. Pero algunos usuarios de aplicaciones para citas, por ejemplo, han descubierto cómo disfrutan más coqueteando con una pareja virtual que por una cita real. Esto cambia los tipos de personas disponibles en el grupo de citas humano real, además de remodelar la comunicación interpersonal.

    Aunque los chat-bots y otros tipos de IA “inteligentes” impulsados ​​por grandes modelos lingüísticos (LLM, por sus siglas en inglés) pueden parecer los más importantes para el comportamiento humano, incluso las pequeñas intrusiones en nuestras vidas sociales por parte de una IA más simple pueden tener profundos efectos colaterales, para bien o para mal...

    En un experimento, planteamos a 1.024 sujetos de 64 grupos el desafío de producir los llamados bienes públicos: artículos que las personas crean trabajando juntas y son en beneficio mutuo, como un faro. La idea es que si todos colaboran, terminarán beneficiándose más de lo que contribuyeron. Pero, por supuesto, la tentación es dejar que otros trabajen para cuidar de los bienes comunes.

    [continuará] ... ... ...

    ResponderEliminar
    Respuestas
    1. ... ... ... [continúa]

      Al principio, más del 60% de las personas actuaron en modo altruista y ayudaron. Pero descubrimos cómo al agregar solo unos pocos robots (que los jugadores como más humanos percibieron) comportándose aprovechadamente, podíamos hacer que todo el grupo se comportara de manera egoísta hasta el punto del dejar toda cooperación. Los robots podían convertir a unas personas que, por lo demás, eran generosas en un grupo de idiotas.

      Pero también ocurrió lo contrario. Podríamos utilizar robots para mejorar la cooperación humana. Darles a las personas socios cooperativos (artificiales) hizo que fueran más amables de lo que normalmente serían al tratar con otras. Más experimentos muestran que cuando alguien delega tomas de decisiones en agentes de IA (lo cual es cada vez más probable, desde por los LLM redactando e-mails hasta encargando a drones objetivos militares...) puede oscurecerse la responsabilidad moral fomentando interacciones poco éticas con otras personas.

      Si socavar la sinceridad en el interaccionar de las personas no es bastante preocupante, se teme que la IA también pueda socavar su seguridad física. En experimentos recién publicados dirigidos por Hirokazu Shirado en la Universidad Carnegie Mellon, descubrimos que incluso formas muy simples de asistencia de IA para los conductores, como el volante o frenado automático, erosionaban las normas sociales de reciprocidad en la carretera.

      Permitir que los humanos delegaran si debían desviarse del automóvil que se aproximaba por repetidos juegos de gallina resultó en que posteriormente las personas tuvieran menos probabilidades de turnarse para ceder el paso, aumentando así la frecuencia de accidentes cuando conducían sin asistencia por IA.

      Estos efectos de la IA sugieren que podría tener un gran impacto en las normas sociales que han evolucionado durante milenios, dando forma al cómo nos tratamos unos a otros en todo tipo de interacciones cotidianas. Los gobiernos no pueden permitirse lujo de ignorar los riesgos. Como mínimo, deberían evaluar más de cerca si los sistemas de IA están alineados con los intereses sociales humanos y deberían prever más pruebas de seguridad.

      Como dejó claro la Declaración de Bletchley firmada por reciente Cumbre sobre seguridad de la IA en Gran Bretaña, innovación debe ir de la mano con atención al mitigarse los riesgos. Después de todo, no podemos pedirle a la IA que se regule a sí misma, ni siquiera cortésmente.

      Nicholas A. Christakis (director del Laboratorio de Naturaleza Humana en Yale University).

      Eliminar
  3. 'El Evangelio': CÓMO UTILIZA Israel INTELIGENCIA ARTIFICIAL PARA seleccionar objetivos al BOMBARDEAR en GAZA

    El ejército israelí no ha ocultado la intensidad de sus bombardeos sobre la Franja de Gaza. En los primeros días de la ofensiva, el jefe de la fuerza aérea habló de ataques aéreos incesantes “las 24 horas del día”. Sus fuerzas solo atacaban objetivos militares, dijo, con un matiz: “No estamos buscando una precisión quirúrgica”. Pero donde no se ha puesto mucha atención es en los métodos que las Fuerzas de Defensa de Israel (FDI) están desplegando para seleccionar sus objetivos en Gaza, ni en el papel que la inteligencia artificial (IA) está teniendo en esa campaña de bombardeos.

    Las Fuerzas de Defensa de Israel llevan mucho tiempo labrándose una reputación de habilidad tecnológica, con afirmaciones audaces pero inverificables sobre el empleo de nuevas herramientas. Tras la guerra de mayo de 2021 en Gaza, que duró 11 días, los oficiales del ejército dijeron que Israel había librado su “primera guerra de IA” con computación avanzada y técnicas de aprendizaje automático.

    La última guerra entre Israel y Hamás está siendo una oportunidad sin precedentes para que las FDI desplieguen estas herramientas en un teatro de operaciones mucho mayor. En particular, en la guerra actual se está desplegando lo que llaman 'Habsora (El Evangelio)', una plataforma de detección de objetivos basada en inteligencia artificial que ha acelerado de manera significativa la generación de objetivos posibles. Tanto es así que los oficiales lo comparan con una “fábrica”.

    Entrevistas con fuentes de inteligencia y declaraciones poco difundidas de las FDI u oficiales retirados permiten vislumbrar esta unidad secreta de la inteligencia militar israelí basada en IA que va siendo crucial en la respuesta israelí a la masacre perpetrada por Hamás en el sur de Israel el 7 de octubre. Y esto llega en un momento de preocupación creciente por el riesgo que supone para los civiles desplegarse, por los ejércitos avanzados de todo el mundo, complejos y opacos sistemas automatizados en los campos de batalla. “Otros Estados están mirando y aprendiendo”, dijo un antiguo oficial de seguridad de la Casa Blanca que conoce el uso de sistemas autónomos dentro del ejército estadounidense.

    "De 50 objetivos anuales a 100 al día, y el 50% es atacado": las FDI anunciaron a principios de noviembre que su unidad de selección de objetivos había identificado a “más de 12.000” objetivos dentro de Gaza. “Trabajamos sin descanso con la meta de definir quién y qué es el enemigo; los operativos de Hamás no están protegidos por mucho que se escondan”, dijo un oficial sobre el proceso.

    “La extracción veloz y automatizada de inteligencia” permite a El Evangelio recomendar objetivos a sus analistas “para generar recomendaciones automatizadas de ataque a objetivos como las residencias privadas de personas sospechosas de militar en Hamás o Yihad Islámica" creando una base de datos de entre 30.000 y 40.000 presuntos militantes susceptibles de ser asesinados.

    [continuará] ... ... ...

    ResponderEliminar
    Respuestas
    1. ... ... ... [continúa]

      Según Aviv Kochavi, hasta enero del 2023 jefe de las FDI, en la guerra de 11 días que Israel libró contra Hamás durante mayo de 2021 la máquina generó 100 objetivos cada 24 horas “una vez que se activó analizando desde imágenes tomadas por drones, hasta comunicaciones interceptadas, datos de vigilancia, o información sobre movimientos y patrones de conducta en grandes grupos de personas".

      La unidad de generación de objetivos se creó para resolver un problema crónico que aquejaba a las FDI en sus operaciones anteriores en Gaza: las fuerzas aéreas se quedaban una y otra vez sin objetivos que atacar.

      Cada vez que comienza una nueva ofensiva, dijeron las fuentes, los altos cargos de Hamás desaparecen en los túneles. Según esas fuentes, con sistemas como El Evangelio las FDI pueden localizar y atacar a un grupo mucho mayor de operativos jóvenes.

      De acuerdo con un oficial israelí que trabajó seleccionando objetivos, en el conflicto actual la casa del presunto militante de Hamás es bombardeada independientemente de su rango. “Son muchas casas”, dijo. “Miembros de Hamás que en realidad no significan nada viven en casas así por toda Gaza, la casa es marcada, la bombardean y matan a todos los que anden allí”.

      Un ex alto rango del ejército israelí defiende que las operaciones usan una evaluación “muy precisa” del número de civiles que evacúan un edificio poco antes de un ataque. “Hay un algoritmo estimando cuántos civiles quedan; nos da un rojo, verde o amarillo”. Y según cifras publicadas en noviembre por las FDI, Israel atacó 15.000 objetivos en Gaza durante los primeros 35 días de guerra.

      Fábrica de asesinatos masivos: "en verdad, trabajamos a toda velocidad y no hay tiempo para detenernos en profundidad sobre cada objetivo; la sensación es que vamos a ser medidos por el número de objetivos que somos capaces de generar”. La doctora Marta Bo, del Instituto Internacional en Investigaciones para la Paz sueco, dice que incluso cuando “hay humanos en el proceso” existe el peligro de desarrollar una “preferencia por lo automatizado sobre decisiones humanas complejas”.

      (Harry Davies / Bethan McKernan / Dan Sabbagh, Jerusalén - 9.12.23, 'TheGuardian')

      Eliminar