Una revisión crítica de las ‘Pautas éticas para una IA confiable’ de la UE

Tech News

Europa tiene algunas de las políticas de gobernanza de inteligencia artificial centradas en el ser humano más progresistas del mundo. En comparación con la supervisión gubernamental de mano dura en China o el estilo del Salvaje Oeste todo vale En EE. UU., la estrategia de la UE está diseñada para fomentar la innovación académica y empresarial y, al mismo tiempo, proteger a los ciudadanos privados de daños y extralimitaciones. Pero eso no significa que sea perfecto.

La iniciativa de 2018

En 2018, la Comisión Europea inició su Iniciativa de la Alianza Europea de IA. La alianza existe para que varias partes interesadas puedan opinar y ser escuchadas mientras la UE considera sus políticas en curso que rigen el desarrollo y la implementación de tecnologías de IA.

Desde 2018, más de 6000 partes interesadas han participado en el diálogo a través de varios lugares, incluidos foros en línea y eventos presenciales.

Saludos humanoides

Suscríbase a nuestro boletín ahora para recibir un resumen semanal de nuestras historias favoritas de IA en su bandeja de entrada.

Los comentarios, inquietudes y consejos proporcionados por esas partes interesadas han sido considerados por el “Grupo de expertos de alto nivel sobre inteligencia artificial” de la UE, quien finalmente creó cuatro documentos clave que funcionan como base para las discusiones de política de la UE sobre IA:

1. Pautas de ética para una IA confiable

2. Recomendaciones de política e inversión para una IA confiable

3. Lista de evaluación para IA confiable

4. Consideraciones sectoriales sobre las recomendaciones de política e inversión

Este artículo se centra en el elemento número uno: las “Pautas éticas para una IA confiable” de la UE.

Publicado en 2019, este documento expone las preocupaciones éticas básicas y las mejores prácticas para la UE. Si bien no lo llamaría exactamente un “documento vivo”, está respaldado por un sistema de informes actualizado continuamente a través de la iniciativa European AI Alliance.

Las Pautas de ética para la IA confiable proporcionan un “conjunto de 7 requisitos clave que los sistemas de IA deben cumplir para ser considerados confiables”.

Agencia humana y supervisión

Según el documento:

Los sistemas de IA deberían empoderar a los seres humanos, permitiéndoles tomar decisiones informadas y fomentando sus derechos fundamentales. Al mismo tiempo, se deben garantizar los mecanismos de supervisión adecuados, lo que se puede lograr mediante enfoques humanos en el circuito, humanos en el circuito y humanos al mando.

Valoración de Neural: pobre

Human-in-the-loop, human-on-the-loop y human-in-command son enfoques muy subjetivos de la gobernanza de la IA que casi siempre se basan en estrategias de marketing, jerga corporativa y enfoques falsos para discutir cómo funcionan los modelos de IA. para parecer eficaz.

Esencialmente, el mito del “humano en el circuito” implica la idea de que un sistema de IA es seguro siempre que un humano sea el responsable final de “pulsar el botón” o autorizar la ejecución de una función de aprendizaje automático que podría tener un efecto adverso en humanos

El problema: Human-in-the-loop depende de humanos competentes en todos los niveles del proceso de toma de decisiones para garantizar la equidad. Desafortunadamente, los estudios muestran que los humanos son fácilmente manipulable por máquinas.

También somos propensos a ignorar las advertencias cuando se vuelven rutinarias.

Piénsalo, ¿cuándo fue la última vez que leíste toda la letra pequeña de un sitio web antes de aceptar los términos presentados? ¿Con qué frecuencia ignora la luz de “revisar el motor” en su automóvil o la alerta de “tiempo para una actualización” en el software cuando aún funciona correctamente?

Automatizar programas o servicios que afectan los resultados humanos bajo el pretexto de que tener un “humano en el circuito” es suficiente para evitar la desalineación o el uso indebido es, en opinión de este autor, un enfoque irresponsable de la regulación que da a las empresas carta blanca para desarrollar modelos dañinos siempre y cuando ya que agregan un requisito de “humano en el circuito” para su uso.

Como ejemplo de lo que podría salir mal, el galardonado “Sesgo de máquinaEl artículo puso al descubierto la propensión del paradigma humano en el circuito a causar un sesgo adicional al demostrar cómo la IA utilizada para recomendar sentencias penales puede perpetuar y amplificar el racismo.

Una solución: la UE debería eliminar la idea de crear “mecanismos de supervisión adecuados” y, en cambio, centrarse en crear políticas que regulen el uso y la implementación de sistemas de IA de caja negra para evitar que se implementen en situaciones en las que los resultados humanos podrían verse afectados a menos que haya una autoridad humana que puede ser considerada responsable en última instancia.

Robustez técnica y seguridad

Según el documento:

Los sistemas de IA deben ser resistentes y seguros. Deben ser seguros, garantizar un plan de respaldo en caso de que algo salga mal, además de ser precisos, confiables y reproducibles. Esa es la única forma de garantizar que también se puedan minimizar y prevenir los daños no intencionales.

Valoración de Neural: necesita trabajo.

Sin una definición de “seguro”, toda la declaración es una pelusa. Además, “precisión” es un término maleable en el mundo de la IA que casi siempre se refiere a puntos de referencia arbitrarios que no se traducen más allá de los laboratorios.

Una solución: la UE debe establecer un requisito mínimo que los modelos de IA implementados en Europa con el potencial de afectar los resultados humanos deben demostrar igualdad. Un modelo de IA que logra una menor confiabilidad o “precisión” en tareas que involucran a minorías no debe considerarse seguro ni confiable.

Privacidad y gobierno de datos

Según el documento:

Además de garantizar el pleno respeto de la privacidad y la protección de datos, también se deben garantizar mecanismos adecuados de gobernanza de datos, teniendo en cuenta la calidad e integridad de los datos, y asegurando el acceso legítimo a los mismos.

Valoración de Neural: bueno, pero podría ser mejor.

Por suerte, el Reglamento General de Protección de Datos (GDPR) hace la mayor parte del trabajo pesado aquí. Sin embargo, los términos “calidad e integridad” son muy subjetivos, al igual que el término “acceso legitimado”.

Una solución: la UE debe definir un estándar en el que los datos deben obtenerse con consentimiento y ser verificados por humanos para garantizar que las bases de datos utilizadas para entrenar modelos contengan solo datos que estén debidamente etiquetados y utilizados con el permiso de la persona o grupo que los generó.

Transparencia

Según el documento:

Los modelos comerciales de datos, sistemas e IA deben ser transparentes. Los mecanismos de trazabilidad pueden ayudar a lograr esto. Además, los sistemas de IA y sus decisiones deben explicarse de manera adaptada a la parte interesada en cuestión. Los seres humanos deben ser conscientes de que están interactuando con un sistema de IA y deben estar informados de las capacidades y limitaciones del sistema.

Valoración de Neural: esto es basura caliente.

Solo un pequeño porcentaje de los modelos de IA se prestan a la transparencia. La mayoría de los modelos de IA en producción hoy en día son sistemas de “caja negra” que, por la naturaleza misma de su arquitectura, producen resultados utilizando demasiados pasos de abstracción, deducción o fusión para que los analice un ser humano.

En otras palabras, un sistema de IA dado podría usar miles de millones de parámetros diferentes para producir un resultado. Para entender por qué produjo ese resultado en particular en lugar de uno diferente, tendríamos que revisar cada uno de esos parámetros paso a paso para poder llegar exactamente a la misma conclusión que la máquina.

Una solución: la UE debe adoptar una política estricta que impida el despliegue de sistemas de inteligencia artificial opacos o de caja negra que produzcan resultados que podrían afectar los resultados humanos a menos que una autoridad humana designada pueda ser plenamente responsable de los resultados negativos no deseados.

Diversidad, no discriminación y equidad

Según el documento:

Debe evitarse el sesgo injusto, ya que podría tener múltiples implicaciones negativas, desde la marginación de grupos vulnerables hasta la exacerbación de los prejuicios y la discriminación. Fomentando la diversidad, los sistemas de IA deben ser accesibles para todos, independientemente de cualquier discapacidad, e involucrar a las partes interesadas relevantes a lo largo de todo su ciclo de vida.

Valoración de Neural: pobre.

Para que los modelos de IA involucren a las “partes interesadas relevantes a lo largo de todo su ciclo de vida”, deberían estar capacitados en datos obtenidos de diversas fuentes y desarrollados por equipos de personas diversas. La realidad es que STEM es dominado por hombres blancos, heterosexuales y cis y hay una miríada de estudios revisados ​​por pares que demuestran cómo ese hecho simple y demostrable hace que sea casi imposible producir muchos tipos de modelos de IA sin sesgo.

Una solución: a menos que la UE tenga un método para resolver la falta de minorías en STEM, debería centrarse en crear políticas que eviten que las empresas y las personas implementen modelos de IA que produzcan resultados diferentes para las minorías.

Bienestar social y ambiental

Según el documento:

Los sistemas de IA deberían beneficiar a todos los seres humanos, incluidas las generaciones futuras. Por lo tanto, debe garantizarse que sean sostenibles y respetuosos con el medio ambiente. Además, deben tener en cuenta el medio ambiente, incluidos otros seres vivos, y su impacto social y social debe considerarse cuidadosamente.

Valoración de Neural: gcomer ¡Sin notas!

Responsabilidad

Según el documento:

Deben establecerse mecanismos para garantizar la responsabilidad y la rendición de cuentas de los sistemas de IA y sus resultados. La auditabilidad, que permite la evaluación de algoritmos, datos y procesos de diseño, juega un papel clave en esto, especialmente en aplicaciones críticas. Además, debe garantizarse una reparación adecuada y accesible.

Valoración de Neural: bueno, pero podría ser mejor.

Actualmente no hay consenso político sobre quién es responsable cuando la IA falla. Si los sistemas de reconocimiento facial de los aeropuertos de la UE, por ejemplo, identifican erróneamente a un pasajero y la consulta resultante le causa un daño financiero (pierde su vuelo y cualquier oportunidad derivada de su viaje) o angustia mental innecesaria, no hay nadie a quien se pueda responsabilizar por el error.

Los empleados que siguen el procedimiento basado en la señalización de una amenaza potencial por parte de la IA simplemente están haciendo su trabajo. Y los desarrolladores que entrenaron los sistemas suelen ser irreprochables una vez que sus modelos entran en producción.

Una solución: la UE debería crear una política que dicte específicamente que los seres humanos siempre deben rendir cuentas cuando un sistema de IA provoca un resultado no deseado o erróneo para otro ser humano. La actual política y estrategia de la UE fomenta un enfoque de “culpar al algoritmo” que beneficia más los intereses corporativos que los derechos de los ciudadanos.

Hacer una base sólida más fuerte

Si bien el comentario anterior puede ser duro, creo que la estrategia de inteligencia artificial de la UE es una luz que muestra el camino. Sin embargo, es obvio que el deseo de la UE de competir con el mercado de innovación de Silicon Valley en el sector de la IA ha empujado el listón de la tecnología centrada en el ser humano un poco más hacia los intereses corporativos que otras iniciativas de política tecnológica de la unión.

La UE no daría el visto bueno a un avión del que se ha demostrado matemáticamente que se estrella más a menudo si los pasajeros son personas negras, mujeres o homosexuales que cuando hay hombres blancos a bordo. Tampoco debería permitir que los desarrolladores de IA se salgan con la suya al implementar modelos que funcionan de esa manera.

Sharing is caring!

Leave a Reply