Los gigantes de la inteligencia artificial crean una organización para combatir sus “riesgos”

Google, Microsoft, Anthropic y OpenAI, cuatro empresas que lideran la carrera por la inteligencia artificial (IA) de última generación, anunciaron la creación de una nueva organización profesional para combatir los presuntos riesgos asociados a esta tecnología, llamada “Frontier Model Forum” (Foro del Modelo de Frontera, FMF). Este organismo se encargará de promover el “desarrollo responsable” de los modelos más sofisticados de IA y de “minimizar los riesgos potenciales”, según se informó en un comunicado de prensa. Pero no es su único objetivo, ya que también apuntan a apoyar los esfuerzos en el campo de la IA para resolver “los grandes desafíos de la sociedad, como la lucha contra el cambio climático o la detección temprana del cáncer”.

Los miembros de FMF se comprometen a compartir entre ellos, además de con legisladores, investigadores y asociaciones, “buenas prácticas” para que estos nuevos sistemas sean “menos peligrosos”.

Los puntos centrales de la iniciativa FMM son, en detalle:

  • Avanzar en la investigación de seguridad de la IA para promover el desarrollo responsable de modelos de frontera, minimizar riesgos y permitir evaluaciones independientes y estandarizadas de capacidades y seguridad.
  • Identificar las mejores prácticas para el desarrollo y despliegue responsables de modelos de frontera, ayudando al público a comprender la naturaleza, capacidades, limitaciones e impacto de la tecnología.
  • Colaborar con responsables políticos, académicos, la sociedad civil y empresas para compartir conocimientos sobre los riesgos de confianza y seguridad.
  • Apoyar los esfuerzos para desarrollar aplicaciones que puedan ayudar a enfrentar los mayores desafíos de la sociedad, como la mitigación y adaptación al cambio climático, la detección y prevención temprana del cáncer y la lucha contra las amenazas cibernéticas.

En busca de la regulación

El rápido despliegue de la IA generativa, a través de plataformas como ChatGPT (OpenAI), Bing (Microsoft) o Bard (Google), está causando mucha “preocupación” entre autoridades y la sociedad civil.

La Unión Europea (UE) se encuentra finalizando un proyecto de regulación para la IA que debería imponer obligaciones a las empresas del sector, como la transparencia con los usuarios o el control humano sobre las máquinas, mientras que en Estados Unidos las tensiones políticas en el Congreso impiden cualquier esfuerzo en este sentido.

Así que la Casa Blanca insta a los grupos interesados a que ellos mismos garanticen la seguridad de sus productos, en nombre de su “deber moral”, como dijo la vicepresidenta estadounidense Kamala Harris a principios de mayo.

Related Post

La semana pasada, la administración de Joe Biden se aseguró los “compromisos” de Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI para defender “tres principios” en el desarrollo de IA: seguridad, protección y confianza.

Específicamente, se supone que deben probar sus programas con anticipación, luchar contra los ataques cibernéticos y el fraude, y encontrar la manera de marcar el contenido generado por IA, para que quede autenticado claramente como tal.

Inseguridad

Los líderes tech vienen hablando desde hace meses de estos riesgos de la inteligencia artificial. En junio, Sam Altman, el director de OpenAI, y Demis Hassabis, el líder de DeepMind (Google), instaron a luchar contra “los riesgos de extinción” de la humanidad “vinculados a la IA”.

Durante una audiencia en el Congreso, Sam Altman respaldó la idea cada vez más popular de crear una agencia internacional encargada de la gobernanza de la inteligencia artificial, como las que existen en otros campos.

Entre tanto, OpenAI trabaja para lograr una IA denominada “general”, con capacidades cognitivas similares a las de los humanos. En una publicación del 6 de julio, la empresa con sede en California dice que se enfoca en los “modelos de frontera” de la IA, “modelos fundamentales altamente sofisticados que podrían adquirir capacidades peligrosas suficientes para plantear riesgos graves para la seguridad pública”.

Y advierte que estas capacidades peligrosas podrían “surgir inesperadamente” y que “es difícil evitar realmente que un modelo implementado sea mal utilizado”. (DIB) MM

Dejanos tu comentario
Compartir

Últimas noticias

Es oficial: El proyecto de venta del matadero municipal volvió al Ejecutivo

Los concejales de UxP se retiraron del recinto luego de que una moción de Julián…

mayo 16, 2024

Matadero municipal | El HCD retoma la sesión en cuarto intermedio

Esta tarde/noche desde las 19.30 horas. El controvertido proyecto, que ya está siendo nuevamente trabajado…

mayo 16, 2024

Docentes: la Provincia ofreció un aumento de 7,5% en mayo y los gremios lo evalúan con las bases

La propuesta incluye el compromiso de enviar una nueva convocatoria para continuar discutiendo salarios a…

mayo 16, 2024

La Anses confirmó suba en junio del 8,8% en las jubilaciones y de casi 42% en la AUH

Son los valores calculados a partir del IPC, según la nueva fórmula de movilidad del…

mayo 16, 2024

Realizaron jornada de reciclado en Gobernador Ugarte

Organizada por la Delegación municipal, la Secundaria 6 y auspiciada por la Agencia Ambiental municipal

mayo 15, 2024

Dio inicio el taller de Música y Recreación para adultos mayores

Dentro del programa "Activa-mente Mayores"

mayo 15, 2024