Considera EU reglas para herramientas de IA como ChatGPT

Considera EU reglas para herramientas de IA como ChatGPT

El Departamento de Comercio lanzó una solicitud pública de comentarios sobre “medidas de responsabilidad” entorno al uso de la IA.

La administración de Biden estudia la necesidad de verificar las herramientas de inteligencia artificial (IA), como ChatGPT.

En medio de la creciente preocupación de que la tecnología podría usarse para discriminar o difundir información dañina, publicó The Wall Street Journal.

Por ello, el Departamento de Comercio ha lanzado una solicitud pública de comentarios sobre “medidas de responsabilidad”.

En un proceso permanecerá abierto por 60 días, con el objetivo de obtener consejos sobre cómo deben los legisladores afrontar las temáticas relacionadas con la inteligencia artificial (IA).

La acción se da, tras el crecimiento explosivo de las soluciones de IA, que genera rápidamente escritura, imágenes, videos y más similares a los humanos.

Como el ChatGPT, de OpenAI,  que ha llegado a 100 millones de usuarios.

Ubicándose como la aplicación con la adopción más rápida de la historia, ubican analistas.

“Es asombroso ver lo que estas herramientas pueden hacer, incluso en su relativa infancia”.

Dijo Alan Davidson, director de la Administración Nacional de Telecomunicaciones e Información.

Sabemos que debemos implementar algunas medidas de protección para asegurarnos de que se utilicen de manera responsable“.

Indica agencia del Departamento de Comercio.

Los comentarios, detalla la autoridad de EU, se utilizarán para formular consejos para los responsables políticos sobre cómo abordar la IA, indicó Davidson.

Agregó que el mandato legal de su agencia implica asesorar al presidente sobre política tecnológica, en lugar de redactar o hacer cumplir las regulaciones.

Crece la preocupación por los riesgos de su uso

El diario señaló que funcionarios de la industria y del gobierno han expresado su preocupación por una variedad de daños potenciales de la inteligencia.

Incluido el uso de la tecnología para cometer delitos o difundir falsedades.

Por ello, líderes tecnológicos, incluido Elon Musk, recientemente pidieron una pausa de seis meses en el desarrollo de sistemas más potentes que GPT-4.

La semana pasada, el presidente Biden discutió el tema con un consejo asesor de científicos en la Casa Blanca, donde se encontraban representantes de Microsoft y Google.

Además, la división antimonopolio del Departamento de Justicia ha dicho que está monitoreando la competencia en el sector.

Mientras que la Comisión Federal de Comercio ha advertido a las empresas que podrían enfrentar consecuencias legales, por hacer afirmaciones falsas o sin fundamento sobre productos de IA.

En el documento de comentarios públicos, la agencia federal de asesoramiento tecnológico preguntó si se deberían agregar medidas para garantizar la confianza del público en los sistemas de inteligencia artificial, como “certificaciones de garantía de calidad”.

¿Cómo fue el resultado de tus ventas en el Buen Fin?

En esta nota se habla de: estados unidos, política pública