Seleccione el país y el idioma

El Instituto de Seguridad de IA del administrador Biden no es 'suficiente' para lidiar con los riesgos, debe verificar los 'procedimientos' del usuario: experto

Estados Unidos creará un Instituto de Seguridad de IA para crear estándares y exigir a las empresas que los cumplan

El CEO de la compañía de IA habla sobre la nueva plataforma de confiabilidad de contenido

El CEO de Seekr Technologies, Pat Condo, habló con Fox News Digital sobre una asociación con Bear Grylls para fomentar la alfabetización mediática digital entre los jóvenes.

Los expertos le dicen a Fox News Digital que el plan de la administración Biden de establecer una comisión de seguridad de inteligencia artificial (IA) puede resultar "necesario" pero no "suficiente" para abordar los riesgos potenciales de la floreciente tecnología.

"Lo más probable es que [el algoritmo] no sea donde radica la mayor parte del riesgo", dijo Phil Siegel, fundador del Centro de Preparación Avanzada y Simulación de Respuesta a Amenazas (CAPTRS). "Es más probable que el riesgo radique en que los usuarios lo usen para mal o simplemente lo usen mal."

El Presidente Biden el lunes firmó una orden ejecutiva eso, dijo la Casa Blanca, incluía las " acciones más radicales jamás tomadas para proteger a los estadounidenses de los riesgos potenciales de los sistemas de inteligencia artificial – : el requisito de que las empresas notifiquen al gobierno cuando capaciten a nuevos modelos y compartan los resultados de las "pruebas de seguridad del equipo de lectura"."

"Estas medidas garantizarán que los sistemas de inteligencia artificial sean seguros y confiables antes de que las empresas los hagan públicos", dijo la Casa Blanca sobre la orden ejecutiva .

La administración también anunció el establecimiento del Instituto de Seguridad de la IA, bajo la supervisión del Instituto Nacional de Estándares y Tecnología, que "establecerá los estándares rigurosos para las extensas pruebas del equipo rojo para garantizar la seguridad antes del lanzamiento público."

Secretaria de Comercio, Gina Raimondo
La secretaria de Comercio, Gina Raimondo, dijo que la administración Biden usaría su Instituto de Seguridad de IA para evaluar los riesgos conocidos y emergentes de los modelos de IA "fronterizos" y que el sector privado "debe intensificar."(Foto AP / Andrew Harnik / Archivo)

Hablando en el Cumbre de Bletchley Park en el Reino Unido, La secretaria de Comercio de Estados Unidos, Gina Raimondo, dijo el miércoles que la administración Biden usaría su nuevo Instituto de Seguridad de IA para evaluar los riesgos conocidos y emergentes de los modelos de IA "fronterizos" y que el sector privado "debe intensificar."

Siegel comparó el enfoque de la Casa Blanca con el de una aerolínea que verifica un plan de "seguridad" pero no verifica los procedimientos de mantenimiento, la capacitación de los pilotos o las tripulaciones.

"Todos son necesarios", dijo. "Del mismo modo, una junta de seguridad no puede simplemente verificar los algoritmos. Necesita verificar los procedimientos para los usuarios."

El presidente de la FTC le entrega un bolígrafo a Biden
Los expertos le dicen a Fox News Digital que el plan de la administración Biden de establecer una comisión de seguridad de inteligencia artificial puede resultar "necesario" pero no "suficiente" para abordar los riesgos potenciales de la floreciente tecnología.(Alex Wong / Getty Images / Archivo)

"Podemos hacer que los proveedores de tecnología ayuden", continuó. "Al igual que hacemos que los bancos proporcionen procedimientos KYC (conozca a su cliente) para prevenir el lavado de dinero, podemos exigir que los proveedores de tecnología proporcionen KYC para la seguridad de las aplicaciones de los usuarios", agregó Siegel.

El Centro de Preparación Avanzada y Simulación de Respuesta a Amenazas aborda este tipo de problemas con regularidad, analizando la toma de decisiones y la intuición entre los usuarios de salud pública, ingeniería, políticas públicas y otras industrias y capacitándolos en juegos para mejorar esas habilidades. Como tal, el comportamiento del usuario sigue siendo una preocupación central, al igual que lo será con la IA.

Muchos críticos de la IA desde principios de este año han destacado las innumerables trampas que presenta la tecnología, desde tecnología deepfake interrumpir las elecciones y generar material de abuso infantil para usar algoritmos generados por IA para atravesar incluso los sistemas de seguridad digital más complejos y acceder a información confidencial.

Bletchley Park, cuna de las máquinas de computación
La finca Bletchley Park en el Reino Unido se muestra en el segundo día de la Cumbre de Seguridad de IA en noviembre. 2, 2023.(Chris J. Ratcliffe / Bloomberg a través de Getty Images)

Christopher Alexander, director de análisis de Pioneer Development Group, reconoció que si bien es una buena idea obligar a las empresas a compartir su información en lugar de ocultarla, en lo que un experto describió previamente a Fox News Digital como una "caja negra" de contenido, el sistema actual parece no tener "un proceso de apelación transparente."

Alexander le dijo a Fox News Digital que también le preocupaba que "las agendas políticas pudieran sesgar el proceso de aprobación de seguridad", la agencia, establecida por orden ejecutiva, pone a su gerencia a instancias del presidente en funciones.

Algunos críticos ya han expresado preocupaciones de sesgo político, como que China requiera que cualquier nueva tecnología de IA ajustarse a los valores socialistas del partido gobernante. 

Greg Norman de Fox News Digital y Reuters contribuyeron a este informe.

Peter Aitken es reportero digital de Fox News con un enfoque en noticias nacionales y globales. 

Publicado originalmente por FoxNews el 3 de noviembre de 2023, escrito por Peter Aitken.

Logo of the Stop Child Abuse non profit (ngo/ong) organization

Hay muchas maneras de participar y marcar la diferencia para prevenir el abuso infantil. Pasa a la acción y elige lo que más te convenga.

Publish modules to the "offcanvs" position.