Musk, Wozniac y miles más piden pausar investigaciones en IA

Musk, Wozniac y miles más piden pausar investigaciones en IA

Los laboratorios de IA están en una carrera fuera de control para desarrollar soluciones poderosas, que no pueden entender, advierten.

Con el acuerdo de más de 5 mil científicos, la organización Future of Life lanzó una carta abierta para solicitar una pausa en las investigaciones de inteligencia artificial (IA).

Un texto que han firmado Elon Musk, fundador Neorolink, cofundador de Apple, Steve Wozniak y más de 1,100 fundadores de empresas tecnológicas y de investigación de IA.

El documento solicita a los laboratorios que pausen sus investigaciones por lo menos por seis meses.

Argumenta que los sistemas de IA con inteligencia humana-competitiva pueden plantear riesgos profundos para la sociedad y la humanidad.

Al respaldarse en los Principios de IA, de Asilomar, cita que la inteligencia avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con cuidado. 

Proceso, que aseguran no está ocurriendo.

Una carrera sin control

Al señalar que en los últimos meses, los laboratorios han entrado en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas.

Instrumentos que nadie, ni siquiera sus creadores, pueden entender. predecir o controlar de forma fiable.

Los sistemas de IA contemporáneos se están volviendo competitivos para los humanos en tareas generales.

Por lo que, ubican es necesario preguntarnos: 

¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? 

¿Deberíamos automatizar todos los trabajos, incluidos los de cumplimiento?, ¿desarrollar mentes no humanas que, eventualmente, podrían superarnos en número, ser más inteligentes y reemplazarnos?

¿Deberíamos arriesgarnos a perder el control de nuestra civilización?

Tales decisiones, asegura, no deben delegarse en líderes tecnológicos no elegidos.

Por una IA segura

Al enfatizar que las inteligencias potentes deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos manejables.

Retomando la declaración de OpenAI con respecto a la inteligencia general artificial, la cual señala que: 

“Es importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros. “Estamos de acuerdo, que ese punto es ahora”.

Argumenta el texto.

Por lo tanto, hacen un llamado a todos los laboratorios para que pausen de inmediato durante al menos 6 meses el entrenamiento de las inteligencias más potentes que GPT-4 .

En una pausa pública y verificable, que incluya a todos los actores clave y si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria.

Tiempo que los laboratorios y expertos deberían aprovechar para desarrollar e implementar conjuntamente, protocolos de seguridad compartidos para el diseño y desarrollo avanzado de estas inteligencias.

A fin de garantizar, que estos sistemas sean seguros más allá de toda duda razonable. 

Por un verano de IA

Pero, una pausa no significa parar su desarrollo, enfatiza, es simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes y capacidades emergentes.

La investigación y desarrollo -consideran- deben reenfocarse para que estos sistemas sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.

Paralelamente, los desarrolladores deben trabajar con los legisladores para acelerar en la creación de sistemas sólidos de gobierno de la IA.

Los cuales necesitan incluir como mínimo:

  • Autoridades reguladoras nuevas, capaces y dedicadas a la IA;
  • Supervisión y seguimiento de sistemas de IA de alta capacidad;
  • Sistemas de procedencia y marcas de agua para ayudar a distinguir las fugas reales de las sintéticas y rastrear modelos; 
  • Un sólido ecosistema de auditoría y certificación;
  • Responsabilidad por daños causados ​​por IA; 
  • Financiamiento público sólido para la investigación técnica de seguridad de y para la IA; 
  • Instituciones bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente en la democracia) que provoca la IA.

Para crear con éxito poderosos sistemas de IA y “podemos disfrutar de un verano de IA, en el que cosechamos recompensas.

“No nos apresuremos a caer sin estar preparados”.

Concluye la carta.
¿Cómo fue el resultado de tus ventas en el Buen Fin?