jueves, 26 de octubre de 2023

"El riesgo en IA deberá tratarse tan seriamente como la Crisis Climática..." [GoogleDeepMind]

   
 
El mundo debe tratar sobre los riesgos de la Inteligencia Artificial con la misma seriedad que la Crisis Climática y no puede permitirse el lujo de retrasar su respuesta, advirtió una de las principales figuras de la tecnología.

Mientras el gobierno del Reino Unido se prepara para organizar una Cumbre sobre la seguridad de la IA, Demis Hassabis dijo que la supervisión en esta industria podría comenzar con un organismo similar al del famoso Panel Intergubernamental sobre Cambio Climático (IPCC).
 
 
Hassabis, el director ejecutivo británico de la unidad de Inteligencia Artificial de Google, dijo que el mundo debe actuar de inmediato para abordar los peligros de la tecnología, que incluyen ayudar a la creación de armas biológicas y amenazas existenciales que plantean los sistemas 'superinteligentes'.

"Debemos tomarnos los riesgos de la IA tan en serio como otros desafíos globales importantes, cual el Cambio Climático", dijo. “A la comunidad internacional le tomó demasiado tiempo coordinar una respuesta global efectiva a esto, y ahora estamos viviendo con las consecuencias de eso. No podemos permitirnos el mismo retraso con la IA”.
  
Hassabis, cuya unidad creó el revolucionario programa 'AlphaFold' que representa estructuras de proteínas, dijo que la IA podría ser "una de las tecnologías más importantes y beneficiosas jamás inventadas".

Sin embargo, dijo a 'The Guardian' que se necesitaba un régimen de supervisión y que los gobiernos deberían inspirarse en estructuras internacionales como la mayor precedente. "Creo que tenemos que comenzar con algo como el IPCC, donde es un acuerdo científico y de investigación con informes, y luego ir avanzando a partir de ahí".
 
 
Y añadió: “Entonces lo que me gustaría ver eventualmente es un equivalente del CERN (Centro Europeo para la Investigación Atómica) para la seguridad de la IA que investigue sobre eso, pero a nivel internacional. Y luego tal vez algún día haya algún tipo de equivalente de la OIEA, que realmente audite estas cosas”.

La Agencia Internacional de Energía Atómica (OIEA) es un organismo de la ONU que promueve el uso seguro y pacífico de la tecnología nuclear en su esfuerzo para prevenir una proliferación de las armas nucleares, incluso hasta mediante inspecciones. Sin embargo, Hassabis dijo que ninguna de las analogías regulatorias utilizadas para la IA era “directamente aplicable” a la tecnología, aunque se podían extraer “lecciones valiosas” de las instituciones existentes.

La semana pasada, Eric Schmidt, ex director ejecutivo de Google, y Mustafa Suleyman, cofundador de 'DeepMind', pidieron la creación de un panel estilo IPCC sobre IA. Aunque los funcionarios del Reino Unido apoyan tal medida, se cree que creen que su creación debería llevarse a cabo bajo los auspicios de la ONU.

Hassabis dijo que la IA podría brindar “oportunidades increíbles” en campos como la medicina y la ciencia, pero reconoció preocupaciones existenciales en torno a la tecnología. Se centran en el posible desarrollo de Inteligencia Artificial General (AGI), sistemas con niveles de inteligencia iguales o superiores a los humanos que podrían evadir el control humano.
 
 
Hassabis fue uno de los firmantes en mayo de una carta abierta advirtiendo que la amenaza de extinción de la IA debería considerarse un riesgo a escala social a la par de las pandemias y la guerra nuclear. “Deberíamos empezar a pensar y a investigar ahora. Me refiero a ayer, en realidad”, dijo. “Por eso firmé, y mucha gente firmó, esa carta. Es porque queríamos darle credibilidad a que es un tema razonable para discutir”.

A algunos expertos de la industria tecnológica les preocupa que la AGI o IA “divina” esté a solo unos años de emerger, aunque también existe otra opinión alternativa de quse están exagerando los temores sobre la amenaza existencial. Hassabis dijo que faltaba mucho tiempo para que el mundo desarrollara sistemas AGI, pero "podemos ver el camino hacia allí, por lo que deberíamos discutirlo ahora".

Dijo que los sistemas de IA actuales "no presentan riesgos, mas para las próximas generaciones... pueden tenerlos cuando tengan capacidades adicionales como planificación y memoria y otras cosas... Serán fenomenales para buenos casos de uso, pero también tendrán riesgos".
 
 
La próxima Cumbre que se celebrará los días 1 y 2 de noviembre en Bletchley Park, la base de los descifradores de códigos de la Segunda Guerra Mundial, incluido Alan Turing, se centrará en la amenaza de que los sistemas avanzados de Inteligencia Artificial ayuden a crear armas biológicas, llevar a cabo ciberataques devastadores o evadir el control humano. Hassabis será uno de los asistentes, junto con los directores ejecutivos de empresas líderes en Inteligencia Artificial, incluida 'OpenAI', el desarrollador de 'ChatGPT 'con sede en San Francisco.

La unidad de Hassabis ha logrado avances significativos en la tecnología de IA, como la creación del programa 'AlphaGo AI' que derrotó al mejor jugador del mundo en Go, un juego de mesa chino, y el innovador proyecto 'AlphaFold' que predice cómo las proteínas se pliegan en formas 3D, un proceso que ha allanado el camino. camino para avances en una variedad de áreas, incluida la lucha contra las enfermedades.

Hassabis dijo que era optimista acerca de la IA debido a su potencial para revolucionar campos como la medicina y la ciencia, pero que era necesario encontrar algún “camino intermedio” para gestionar la tecnología. La IA ha saltado a la agenda política después del lanzamiento público el año pasado de 'ChatGPT', un chatbot que se convirtió en una sensación debido a su capacidad para producir respuestas de texto altamente plausibles a indicaciones humanas escritas, desde la producción de largos ensayos académicos hasta recetas y solicitudes de empleo, e incluso ayudar a las personas a revocar multas de estacionamiento.
 
 
Las herramientas de generación de imágenes de IA, como 'Midjourney', también han asombrado a los observadores al crear imágenes realistas, incluida una notoria “fotografía” del Papa con una chaquetilla [fake] acolchada, lo que generó preocupaciones de que actores deshonestos pudieran usar herramientas de IA para producir desinformación en masa.

Esos temores han alimentado las preocupaciones sobre el poder potencial de la próxima generación de modelos de IAHassabis, cuya unidad está trabajando en un nuevo modelo de IA llamado 'Gemini' que generará imágenes y texto, dijo que imaginaba un sistema estilo 'Kitemark' para los modelos emergentes.

Este año, el gobierno del Reino Unido lanzó el grupo de trabajo 'Frontier AI', cuyo objetivo es crear directrices para probar modelos de IA de vanguardia y podría convertirse en un punto de referencia para los esfuerzos de prueba a nivel internacionalHassabis dijo: "Me imagino que en el futuro tendríamos esta batería de 1.000 pruebas, o podrían ser 10.000 pruebas, y luego obtendríamos la seguridad 'Kitemark' a partir de eso". 
 
 
El bando pesimista que expresa los citados temores tiene sólidas credenciales. Geoffrey Hinton, un científico informático británico a menudo descrito como uno de los “padrinos” de la IA moderna, renunció a su trabajo en Google este año para expresar más libremente sus temores sobre la tecnología.

Hinton expresó en mayo su preocupación por que las empresas de IA estén tratando de construir inteligencias con el potencial de superar a la humanidad"Mi confianza en que esto no sucedería por un tiempo se ha visto sacudida por la comprensión de que la inteligencia biológica y la inteligencia digital son muy diferentes, y la inteligencia digital es probablemente mucho mejor".

Stuart Russell, otro importante científico informático británico, ha advertido sobre un escenario en el que la ONU pide a un sistema de Inteligencia Artificial que cree un catalizador auto-multiplicador para desacidificar los océanos, con la instrucción de seguridad de que el resultado no es tóxico y que ningún pez están perjudicados. Pero el resultado consume una cuarta parte del oxígeno de la atmósfera y somete a los humanos a una muerte lenta y dolorosa. Los críticos de la cumbre argumentan que centrarse en el riesgo existencial ignora problemas a corto plazo como los 'deepfakes'El gobierno parece haber reconocido las preocupaciones inmediatas, y la agenda de la cumbre se refiere a la interrupción de las elecciones y a que las herramientas de Inteligencia Artificial producen resultados sesgados. 
 
 
Hay hasta tres categorías de riesgo, todas “igualmente importantes”, y es necesario trabajar ya en todas ellas simultáneamente. El primero son los riesgos a corto plazo, como los 'deepfakes' y los sesgos. "Ese tipo de cuestiones... obviamente son cuestiones muy apremiantes, especialmente con las elecciones del próximo año. Así que... necesitamos soluciones ahora". 'Google DeepMind' ya ha lanzado una herramienta que marca las imágenes generadas por IA.

La segunda categoría de riesgo son los actores deshonestos que acceden a herramientas de Inteligencia Artificial, a través de sistemas ajustables y disponibles públicamente conocidos como modelos de código abierto, y los utilizan para causar daño. “¿Cómo se puede restringir el acceso a los malos actores, pero de alguna manera permitir todos los buenos casos de uso? Ese es un gran debate”.

El tercero es el AGI, que ya no se considera una posibilidad fantástica. Los sistemas super-poderosos podrían tardar “más de una década”, pero la idea de controlarlos debe comenzar de inmediato. También existen opiniones alternativas en este campo. Yann LeCun, científico jefe de IA en 'Meta' de Mark Zuckerberg y una figura respetada en la IA, dijo la semana pasada que los temores de que la IA pudiera acabar con la humanidad eran "absurdos".
 
 
No obstante, una preocupación entre quienes se preocupan por los sistemas 'superinteligentes' es la noción de que podrían evadir su control“¿Puede filtrar su propio código, extraer su propio código, mejorar su propio código”, dice Hassabis? “¿Puede copiarse a sí mismo sin autorización? Porque todos estos serían comportamientos indeseables, porque si quieres cerrarlo, no quieres que lo solucione copiándose en otro lugar. Hay muchos comportamientos como ese que serían indeseables en un sistema poderoso”.

Dijo que las pruebas tendrían que diseñarse para evitar la amenaza de tal comportamiento autónomo. “De hecho, hay que desarrollar una prueba para probar eso... y luego se puede mitigar, y tal vez incluso legislar contra ello en algún momento. Pero primero hay que hacer la investigación”. La situación se complica aún más por el hecho de que ya existen herramientas de IA generativa de gran capacidad (tecnología que produce texto, imágenes y voz plausibles a partir de simples indicaciones humanas) y aún están construyendo el marco regulatorio para enmarcarlas.

Están surgiendo señales de un marco, como los compromisos con la seguridad para las IA firmados por importantes empresas tecnológicas occidentales en la Casa Blanca en julio. Pero los compromisos son voluntarios... Y el trabajo en materia de seguridad debe comenzar “ayer”...


.

6 comentarios:

  1. .
    GRAN FIASCO DE LAS PANTALLAS EN EDUCACIÓN:
    🤔

    - Las mejores escuelas cierran la puerta a los dispositivos electrónicos porque han visto que distraen y empeoran el aprendizaje. Vuelven al libro de texto y a los apuntes a mano...
    =>
    https://www.elmundo.es/la-lectura/2023/10/26/653a79b6e9cf4af9058b4576.html

    - "Los nativos digitales son un mito, lo que hemos hecho a nuestros hijos en nombre de la codicia es imperdonable..."
    =>
    www.elmundo.es/papel/historias/2023/06/25/64947bedfdddffc53a8b458b.html

    - "Que los profesores den clase con pantallas es como si los médicos suministraran heroína..."
    =>
    www.elmundo.es/papel/historias/2023/06/25/64945c8021efa047618b45a7.html

    .

    ResponderEliminar
  2. "INFOCRACIA" (Byung-Chul Han), con apenas un centenar de páginas (por las que desfilan Arendt, Foucault, Habermas, Seeman y multitud de pensadores), nos va sumergiendo en el actual panorama digital y sus vicisitudes. Una indagación más que necesaria para nuestra época propone críticas a la sociedad de la información desde dos direcciones.

    Primera, una observación de los fenómenos asociados a las nuevas tecnologías, como la proliferación de 'fake-news' o el constante procesamiento de datos. Y segunda, la tradición: o sea, lo que otros autores han dicho hasta la fecha sobre los distintos conceptos y escenarios de los que se nutre la Infocracia.

    Han va desarrollando cómo el actual modelo de interacción social, que llama el «régimen de la información», devora la natural inclinación racional humana. La era digital explota el 'pathos', la emoción. Por otra parte, estar conectados mediante multitud de redes sociales a través de 'smart-phones' que llevamos en el bolsillo genera una cantidad de datos inimaginable.

    Nos hemos convertido, como consecuencia, en producto desde el punto de vista económico; pero también en sujeto de control social. Ambas esferas conducen a dos situaciones paralelas y entrelazadas, en opinión de Han. La más evidente: que lo que se dice parece imponerse de forma casi absoluta sobre los hechos. Ya no importa tanto qué sucede como qué quiere creer cada cual que ha sucedido.

    Por otra parte, el flujo continuo de datos de miles de millones de personas en tiempo real alimenta los sueños de los 'dataístas'. Se trata, en verdad, de otra aspiración ancestral: el poder absoluto; eso sí, disfrazado de gestión, optimización y bienestar futuro mediante los 'big data'.

    Han alerta del peligro de no oponerse a los designios de quienes pretenden convertir el flujo de datos en un sustituto del debate político. Sin acción comunicativa no hay democracia. Y sin democracia, sin una ciudadanía libre para disentir, compartir ideas e intentar convencer a su prójimo, la libertad se nos esfuma.

    Interpreta que la democracia está convirtiéndose en una Infocracia, contraposición o deriva de lo que antes existía (primero Mediocracia, entendida como el contexto en el que los medios de comunicación electrónicos destruían el discurso racional que provenía de la cultura del libro, y más allá la Telecracia; donde, según el autor, info-entretenimiento conduce al declive del juicio humano y hace entrar en crisis la Democracia).

    Y en esta crisis se cuecen la infodemia, las 'fake-news' y la utilización del concepto que ya había descrito anteriormente Han: psicopolítica, un sistema de dominación que, en lugar de emplear el poder opresor, utiliza un poder seductor que consigue que los hombres se sometan por sí mismos a la dominación.

    David Lorenzo Cardiel

    ResponderEliminar
    Respuestas
    1. Siguiendo la estela de sus breves e intensas obras anteriores, el filósofo coreano BYUNG-CHUL HAN (Seúl, 1959), afincado en Alemania, entra en la crítica al capitalismo de la vigilancia, concepto popularizado por la socióloga Shoshana Zuboff, con estas palabras: «El factor decisivo para obtener el poder no es ahora la posesión de medios de producción sino el acceso a la información».

      Han recoge y proyecta sus ideas anteriores, por ejemplo en la transparencia de las personas en la sociedad del big data. La transparencia es esencial para el régimen de la información, argumentación que ya vimos en su obra anterior, 'La sociedad de la transparencia'. Nos dice que cuantos más datos generemos, cuanto más intensamente nos comuniquemos, más eficaz será la VIGILANCIA. Expresa su añoranza por las cosas y las letras dado que la comunicación digital favorece más lo visual que lo textual.

      Sobre la democracia escribe Han que la desaparición del otro, «la incapacidad del ESCUCHAR» es la causante de la crisis del sistema democrático, dado que el discurso es sustituido «por la creencia y la adhesión». Las ideas previas son aplicadas así por Han a los procesos electorales del mundo democrático. Procede de su obra «La expulsión de lo distinto» que Han critica como «el infierno de lo igual». Acusa a Rousseau, no es el primero, de ser «el primer dataísta» por su nefasta adherencia a la racionalidad estadística, otro conductista que piensa que «el comportamiento de un individuo puede predecirse y controlarse». La moderna hiper-comunicación digital es puro ruido que destruye cualquier acción colectiva, la idea ya estaba dibujada en su obra 'En el enjambre'.

      Recordemos que Han se doctoró en Friburgo, Alemania, con una tesis sobre Martin Heidegger, el célebre autor de «Ser y tiempo» que se centró en el concepto de 'Dasein' (ser ahí). Una vez más Han rompe una lanza en defensa de lo narrativo sobre lo numérico. Un libro recomendable, más aún para quienes ya han leído sus obras anteriores que encontrarán reflejadas y desarrolladas para el ámbito político en 'INFOCRACIA', un libro grande en contenido y escaso en palabras. Decía Baltasar Gracián que «lo bueno, si breve, dos veces bueno».

      Gustavo Morales

      Eliminar
    2. Con el subtítulo de “DIGITALIZACIÓN Y CRISIS DE LA DEMOCRACIA” el profesor de Filosofía y Estudios Culturales en la Universidad de las Artes de Berlín, el coreano Byung-Chul Han, ha publicado en la Editorial Taurus su último ensayo: "Infocracia".

      El libro, de escasas cien páginas, contiene sin embargo una estructuración de las permutas que la información ha sufrido en las últimas décadas, debido a la influencia de Internet y de las Redes Sociales en las vidas de la ciudadanía global, hasta el punto de haber modificado nuestros comportamientos individuales y sociales y, lo que es más grave, la aparición de un cambio de paradigmas en la conformación de lo que denominamos “[¿POST?]VERDAD”...

      Dividido en cinco partes: El régimen de la información, Infocracia, El fin de la acción comunicativa, Racionalidad digital y La crisis de la verdad, supone un compendio necesario para entender cómo sin darnos cuenta, somos manejados de manera irremisible no ya por los medios de información tradicionales, esto es, la prensa y los audiovisuales, sino que, en un corto espacio de tiempo, hemos caído EN LAS REDES que procesan la información mediante algoritmos e inteligencia artificial, determinando de esta manera cuáles serán los comportamientos de los procesos sociales, económicos y políticos en el devenir, degradando a las personas a la condición de simples “datos y ganado consumidor”. Y, para más inri, con este diabólico sistema, somos nosotros mismos quienes nos colocamos “los grilletes al comunicar y producir información”, porque “la prisión digital es transparente”.

      Los “influencers” están dotados casi de una dimensión religiosa que nos convierte en sus discípulos y “los seguidores participan en una eucaristía digital. Los medios de comunicación social son como una Iglesia: el 'LIKE' es el amén. Compartir es la comunión. El consumo es la redención.”

      Así, de esta manera, el relato de lo que ocurre “deja paso a los recuentos algorítmicos. El régimen de la información sustituye por completo lo narrativo por lo numérico. Lo decisivo para obtener el PODER es ahora la posesión de la información” y, aunque esto es viejo, no lo es lo que sigue: “soberano es quien manda sobre la información en la red”. Algo espeluznante si lo pensamos. Porque, a partir de ahí, deberíamos preguntarnos si somos verdaderamente libres, y la conclusión es clara, no lo somos, o cada vez lo somos menos.

      Cierro esta recomendación con algunas frases más de este extraordinario ensayo: “El tsunami de información desata fuerzas destructivas. Entretanto, se ha apoderado también de la esfera política y está provocando distorsiones y trastornos masivos en el proceso democrático. La democracia está degenerando en INFOCRACIA.” Un libro para meditar sobre lo oscuro que nos rodea y encontrar algo de luz.

      Paco Huelva

      Eliminar
  3. La primera cumbre mundial sobre el desafío de la Inteligencia Artificial: "Estamos jugando con la tecnología como un niño juega con una bomba".

    El gobierno británico impulsa la primera conferencia global sobre IA. Su objetivo es buscar una 'tercera vía' entre la libertad total de EEUU y el afán regulatorio de la Unión Europea =>

    https://www.elmundo.es/papel/futuro/2023/10/30/653fdac9e85ecef34a8b45ae.html
    .

    ResponderEliminar
    Respuestas
    1. Los gobiernos mundiales reunidos desde este miércoles en una cumbre de seguridad sobre inteligencia artificial (IA) en el Reino Unido alertaron en una Declaración conjunta sobre las potenciales consecuencias "catastróficas" de la nueva tecnología: Estados Unidos, China, India y países de la Unión Europea como Francia, Alemania y España están entre los 29 firmantes de un texto que recalca que es "especialmente urgente" analizar los peligros que presenta la nueva tecnología y acordar medidas preventivas tempranas.

      Nos comprometemos a trabajar juntos de manera inclusiva para asegurar una inteligencia artificial centrada en el ser humano, confiable y responsable", señala la declaración, pactada antes de la cumbre y que subraya que el mejor modo de afrontar los riesgos es la "cooperación internacional"·.

      Reunidos en Bletchley Park, el enclave inglés en el que se decodificaban los códigos nazis durante la Segunda Guerra mundial, representantes de las principales potencias globales en el sector tecnológico constaron el "potencial transformador" de la IA, que puede impulsar "el bienestar, la paz y la prosperidad".

      Junto con esos posibles beneficios, sin embargo, van asociados "riesgos significativos" que obligan a velar por que el desarrollo de la tecnología se mantenga bajo "una supervisión humana adecuada".

      La declaración reconoce el peligro de que la IA genere "contenido manipulado" o "engañoso", y urge a tomar medidas en ese sentido, pero va más allá y alerta sobre futuras amenazas provenientes de sistemas "de frontera", que excederán las habilidades de los actuales modelos más avanzados.

      Además de la desinformación, los gobiernos se declaran especialmente preocupados por las aplicaciones de la IA en terrenos como la ciberseguridad y la biotecnología. "Existe el potencial de que se produzcan daños graves, incluso catastróficos, ya sea de manera deliberada o no intencional", subraya el comunicado conjunto.

      "Dado el rápido e incierto ritmo de los cambios en la IA, y en el contexto de una aceleración de las inversiones en tecnología, afirmamos que profundizar en nuestra comprensión de esos riesgos potenciales y las acciones para mitigarlos es especialmente urgente", agrega la declaración.

      El Reino Unido ha impulsado la primera cumbre de seguridad global sobre inteligencia artificial (AISS, en inglés), que volverá a convocarse dentro de seis meses en la República de Corea y dentro de un año en Francia.

      A este primer encuentro, que durará hasta el jueves, asisten, además de gobiernos, representantes de las principales empresas tecnológicas globales, como OpenAI, Google DeepMind, Anthropic, Meta y Microsoft.
      .

      Eliminar