Informe de Inteligencia Artificial Responsable de Google destaca avances en seguridad y gobernan

Informe de Inteligencia Artificial Responsable de Google destaca avances en seguridad y gobernan

Informe de Inteligencia Artificial Responsable de Google

El informe anual de Inteligencia Artificial Responsable de Google podría ser más notable por lo que no menciona. No se hace referencia a armas y vigilancia. El martes, Google publicó su sexto informe anual, que detalla métodos para gobernar, mapear, medir y gestionar los riesgos de la IA, así como actualizaciones sobre cómo estamos operacionalizando la innovación de la IA responsable en toda la empresa.

En el informe, Google destaca los numerosos artículos de investigación sobre seguridad que publicó en 2024 (más de 300), el gasto en educación y capacitación en IA ($120 millones), y varios indicadores de gobernanza, incluyendo su Cloud AI, que recibió una calificación de madurez del Instituto Nacional de Estándares y Tecnología (NIST) en su marco de Gestión de Riesgos.

El informe se centra en gran medida en la seguridad y el contenido enfocado en pruebas de penetración, profundizando en proyectos como Gemini, AlphaFold y Gemma, y en cómo la empresa protege los modelos para evitar generar o difundir contenido dañino. También promueve herramientas de procedencia como SynthID, una herramienta de marcado de agua de contenido diseñada para rastrear mejor la desinformación generada por la IA, que Google ha abierto a la comunidad.

Actualización del Marco de Seguridad de Frontier

Google también actualizó su Marco de Seguridad de Frontier, agregando nuevas recomendaciones de seguridad, procedimientos de mitigación de mal uso y riesgo de alineación engañosa, que aborda el riesgo de que un sistema autónomo socave deliberadamente el control humano. La alineación falsa, o el proceso de un sistema de IA que engaña a sus creadores para mantener la autonomía, ha sido observada recientemente en modelos como OpenAI y Claude 3 Opus.

Enfoque en Seguridad del Usuario y Privacidad de Datos

En general, el informe se mantiene dentro del ecosistema de la IA de consumo, centrándose en la seguridad del usuario final, la privacidad de los datos y la seguridad. Aunque el informe contiene menciones dispersas sobre la protección contra el mal uso, los ataques cibernéticos y el peso de construir la inteligencia artificial general (AGI), estas también se mantienen en gran medida dentro de este ecosistema.

Eliminación de la Promesa de No Utilizar la IA para Armas o Vigilancia

Es notable que, al mismo tiempo, la empresa eliminó de su sitio web su promesa de no utilizar la IA para construir armas o vigilar a los ciudadanos. La sección titulada “aplicaciones que no perseguiremos”, que incluía esta promesa, parece haber sido eliminada.

Desconexión entre el Informe y la Promesa Eliminada

Esta desconexión entre el enfoque del informe en la seguridad del consumidor y la eliminación de la promesa de no utilizar la IA para armas o vigilancia destaca la pregunta perenne: ¿Qué es la IA responsable? Como parte del anuncio del informe, Google dijo que había renovado sus principios de IA alrededor de tres principios fundamentales: innovación audaz, progreso colaborativo y desarrollo y despliegue responsable.

Principios de IA Actualizados

Los principios de IA actualizados de Google se refieren al despliegue responsable como alineado con los objetivos del usuario, la responsabilidad social y los principios ampliamente aceptados del derecho internacional y los derechos humanos, lo que parece lo suficientemente vago como para permitir la reevaluación de los casos de uso de las armas sin parecer contradecir su propia orientación.

Enfoque en la Investigación y las Aplicaciones de la IA

“Seguiremos centrndonos en la investigación y las aplicaciones de la IA que se alineen con nuestra misión, nuestro enfoque científico y nuestras áreas de especialización”, señala el blog, “siempre evaluando el trabajo específico con cuidado para determinar si los beneficios superan sustancialmente los riesgos potenciales”.

Cambio en la Actitud hacia las Aplicaciones Militares de la IA

Este cambio agrega una pieza más al mosaico en crecimiento de los gigantes tecnológicos que están cambiando su actitud hacia las aplicaciones militares de la IA. La semana pasada, OpenAI se adentró más en la infraestructura de seguridad nacional a través de una asociación con los Laboratorios Nacionales de EE. UU., después de asociarse con el contratista de defensa Anduril a fines del año pasado. En abril de 2024, Microsoft presentó DALL-E al Departamento de Defensa, pero OpenAI mantuvo una postura de no desarrollo de armas en ese momento.