La fuerza espacial de EEUU prohíbe el uso de ChatGPT para evitar la filtración de datos

La vulnerabilidad de los datos en el uso de ChatGTP ha sido el motivo por el cual miembros de las fuerzas espaciales de Estados Unidos tienen prohibido utilizar inteligencia artificial (IA) generativa. Este tipo de herramientas se han visto ampliamente promocionadas en el último tiempo con el lanzamiento de la aplicación de Open AI, que significó controversias en varios sectores debido a filtración de datos.

Los inconvenientes entre las autoridades estadounidenses frente a lo que refiere el uso de ChatGTP comenzaron poco después de que se diera a conocer el chatbot y sus funcionalidades. Por el momento, el uso de ChatGPT se encuentra totalmente vedado para “los guardianes” espaciales.

Te contamos donde radican los riesgos en el uso de ChatGTP y porque la famosa aplicación de IA vuelve a estar en la mira.

¿Es peligroso el uso de ChatGTP?

La fuerza espacial de EEUU prohíbe el uso de ChatGPT para evitar la filtración de datos

Comencemos por el principio, estamos hablando de una herramienta IA, creada para contribuir en la vida de los usuarios. Su protocolo y funcionalidades se han ido actualizando, aunque básicamente es un chatbot de asistencia.

Esta plataforma se lanzó bajo el modelo de lenguaje GPT-3 al que luego le seguiría otro más desarrollado. Fue creada por la compañía OpenAI y lo que más impresiono al mundo es su amplitud en el diálogo, simulando una comunicación entre humanos.

Pues dicha capacidad, es producto de sus algoritmos y modelos de aprendizaje automáticos que hacen que pueda enriquecer su base de datos. Muy similar a como lo hacemos los seres humanos, de hecho cuenta con sus propias Redes Neuronales de Transformadores (Transformer Neural Networks).

Ahora bien, ¿por qué puede ser riesgoso el uso de ChatGTP?. Principalmente, porque obtiene datos de sus interacciones. A raíz de lo cual, Lisa Costa, subdirectora de operaciones y miembro de la Fuerza Espacial para tecnología e innovación de Estados Unidos, resaltó un manejo poco claro respecto a la información y la privacidad.

Los “guardianes espaciales” de EEUU tienen prohibidas las herramientas de IA generativa

La fuerza espacial de EEUU prohíbe el uso de ChatGPT para evitar la filtración de datos

Miembros de la Fuerza Espacial de Estados Unidos, fueron notificados de la prohibición que los limita al uso de herramientas IA generativa. La decisión se fundamenta en la protección de los datos del gobierno, argumentando además que La Fuerza Espacial de los Estados Unidos es el brazo del ejecutivo encargado de la protección del país y de sus aliados.

Las nuevas directrices recaen directamente sobre más de 10.000 clientes del Departamento de Defensa que todavía utilizan Ask Sage. La cual, fue creada por Nicolas Chaillan, primer director de software de la Fuerza Aérea y la Fuerza Espacial de Estados Unidos.

Medidas como estas tienen precedentes en EEUU, ya que a mediados de este año quienes tuvieron que atenerse a las limitaciones de uso sobre la IA fueron los integrantes de La Cámara de Representantes de dicho país.

Supervisión y regulaciones para toda la industria IA, una necesidad aún vigente en EEUU

La fuerza espacial de EEUU prohíbe el uso de ChatGPT para evitar la filtración de datos

A raíz de los inconvenientes en los que se ha visto involucrado el uso de ChatGTP y otros protocolos de lenguajes (LLM), Legisladores de La Cámara de Representantes elevaron un proyecto de ley para que se establezca una comisión federal de IA, y de esta manera promover un marco regulatorio general.

La iniciativa obtuvo el inmediato apoyo del fundador de OpenAI, Sam Altman, quien declaro: “Mi peor temor es que nosotros, el sector, la tecnología, la industria, causemos un daño significativo al mundo”, y agregó que “un organismo regulador de la inteligencia artificial en Estados Unidos debería tener la facultad de conceder o revocar licencias para la creación de IA a partir de un determinado límite de capacidad”.

A nivel global, las autoridades parecen estar despertando frente a una necesidad inminente, sobre todo porque involucra a un sector en constante desarrollo. En mayo de este año se lanzó un foro para armonizar la gobernanza sobre la IA, en el Grupo de los Siete (G-7). Luego, el Parlamento Europeo aprobó el primer borrador de la Ley IA de la Unión Europea, con el fin de integrar las políticas.

Mientras tanto, si bien se han dado los primeros avances, Estados Unidos aún no cuenta con un organismo que provea medidas regulatorias contundentes.

Artículos relacionados