IA y ética: lucha por la confianza

Publicado: 2018-10-02

Recientemente asistí al Congreso de IA y la Cumbre de ciencia de datos en Londres y me propuse asistir al panel de discusión titulado Ética e IA. Los panelistas fueron Harriet Kingaby, cofundadora de Not Terminator y Emma Prest, directora ejecutiva de DataKind UK.

La ética es una discusión tan interesante, y quizás el aspecto más importante en el desarrollo de la inteligencia artificial (IA). El año pasado, publicamos la Guía de campo para profesionales del marketing sobre el aprendizaje automático y discutimos el tema de la IA y la ética junto con temas como la equidad, la explicabilidad y la seguridad. Si la IA se desarrollara de manera completamente poco ética, perderíamos la confianza en ella por completo, por lo que debemos tenerla en mente.

En nuestro libro electrónico discutimos:

Hasta la fecha, ML e AI se han implementado principalmente para realizar tareas de nivel inferior, principalmente mundanas para ayudar a mejorar la productividad. Pero pronto pueden estar en condiciones de decidir literalmente la vida o la muerte. Un automóvil autónomo estará a cargo no solo de llevar a sus ocupantes a salvo a su destino, sino también de mantener a salvo a todos los demás. Es solo cuestión de tiempo que un coche autónomo se encuentre en una situación imposible; un accidente es inevitable, su única opción es girar hacia el peatón A por la izquierda o hacia el peatón B por la derecha. ¿Cómo decidiría el sistema de IA bajo el capó qué acción tomar? ¿Basado en el tamaño? ¿Edad? ¿Estatus social? Y cuando los investigadores del accidente traten de determinar qué influyó en el resultado, ¿encontrarían una lógica éticamente preocupante incorporada en él?

De hecho, estas preguntas nos dejaron perplejos entonces, pero desde entonces hemos visto algunos de los resultados. El tema de la ética y la IA no solo se discute en las salas de conferencias y en las universidades, sino que se abrió paso en las páginas legislativas y pronto se integrará en la estructura de cómo operamos como sociedad.

IA buena y mala: pueden pasar muchas cosas en un año

Desde el lanzamiento de nuestro libro electrónico de aprendizaje automático hace menos de un año, ha habido muchos desarrollos de IA (para bien o para mal).

Tesla ha informado de accidentes de piloto automático con vehículos autónomos y han surgido tecnologías como Deepfake , en las que la tecnología de aprendizaje profundo se puede utilizar para crear medios digitales mediante la superposición de imágenes de personas reales en situaciones en las que no participaron con la intención de crear noticias falsas o engaños

En un incidente terriblemente desafortunado, un auto autónomo de Uber mató a un peatón . Esta tragedia ocurrió porque nuestra sociedad confió en una tecnología de IA. Aunque más tarde se descubrió que el error humano jugó un papel en el accidente, una vez que etiqueta estas cosas como IA, es difícil decir que la tecnología no es lo suficientemente inteligente como para dejarla a su suerte. A pesar de esta horrible tragedia, las compañías automotrices ( e Ikea ) continúan anunciando nuevos planes de autos sin conductor.

Y si bien la ética de la IA está en discusión debido a su potencial dañino, es esa misma confianza en su desarrollo la que también ha dado lugar a los muchos resultados sorprendentes de los que nos estamos beneficiando actualmente.

La tecnología, como siempre, es parte del problema y parte de la solución. Considere el rápido ritmo de desarrollo y las nuevas aplicaciones de IA que surgen a diario, como:

  • IA para analizar imágenes de tumores y reconocer tipos de cáncer de pulmón
  • IA que convierte a todo el mundo en un gran fotógrafo
  • IA que puede hacer que las granjas de servidores sean más eficientes

Es posible que haya oído hablar o no de estas fascinantes y beneficiosas tecnologías. La sensación mediática en torno a la tragedia es mucho más frecuente. La exageración y la emoción rodean los errores de la tecnología de IA porque atrae mucha más atención; desde los fracasos mundanos, a menudo divertidos, de los asistentes de IA hasta historias sobre problemas de privacidad más serios .

El punto es que, ya sea que se entere o no, la IA está haciendo muchas cosas positivas, a pesar de sus errores muy publicitados. Estas pruebas y tribulaciones han hecho que la gente hable y las discusiones que ocurren a un nivel más alto sin duda desempeñarán un papel en la configuración de nuestro futuro.

Un esfuerzo organizado para desarrollar la IA de forma ética

Los errores muy publicitados, las pausas académicas y los límites tecnológicos rotos que rodean el desarrollo de la IA han llamado la atención de los líderes de todo el mundo. Después de todo, la IA ya está en uso y la sociedad civil se está preparando para una aceptación generalizada de diversas formas.

Los gobiernos y las asociaciones tienen que estar monitoreando y hablando de ello. Y bueno que lo son. Aquí hay una breve lista de ejemplos de la parte superior de mi cabeza:

  • Educar a los futuros tecnólogos de IA para hacer avanzar la tecnología en beneficio de la humanidad ( AI4ALL ).
  • La ONU trabaja para comprender cómo puede ayudar a lograr el crecimiento económico y trabajar por el bien común
  • Investigación de las implicaciones sociales de la IA ( AI Now Institute )
  • Llamar a los líderes tecnológicos en una carta abierta a adoptar un desarrollo tecnológico centrado en la humanidad, transparente y basado en la confianza.
  • Hacer que la IA sea parte del trabajo parlamentario: el Comité Selecto de Inteligencia Artificial de la Cámara de los Lores del Reino Unido considerará las implicaciones económicas, éticas y sociales de la IA

SO ético

El sistema operativo ético es la práctica de establecer un marco que intente garantizar el desarrollo tecnológico para el futuro minimizando los riesgos técnicos y de reputación futuros. Considera no solo cómo una nueva tecnología puede cambiar el mundo para mejor, sino también cómo podría dañar las cosas o ser mal utilizada.

Este sistema operativo propone algunas áreas generales a considerar:

  • Verdad y desinformación
    ¿Puede la tecnología en la que está trabajando convertirse en una herramienta que pueda usarse para "falsificar" cosas?
  • Adiccion
    Es genial para el creador de una nueva herramienta que sea tan popular que la gente pase mucho tiempo usándola, pero ¿es bueno para la salud? ¿Se puede hacer que la herramienta sea más eficiente para que las personas pasen bien su tiempo, pero no interminablemente? ¿Cómo se puede diseñar para fomentar el uso moderado?
  • Desigualdad
    ¿Quién tendrá acceso y quién no? ¿Se verán afectados negativamente aquellos que no tendrán acceso? ¿La herramienta tiene un impacto negativo en el bienestar económico y el orden social?
  • Ética
    ¿Los datos utilizados para construir la tecnología están sesgados de alguna manera? ¿La tecnología está reforzando el sesgo existente? ¿El equipo que desarrolla las herramientas es lo suficientemente diverso como para ayudar a detectar sesgos a lo largo del proceso? ¿Es la herramienta lo suficientemente transparente para que otros la "auditen"? Ejemplo de IA para contratar para eliminar el sesgo , pero ¿qué pasa con sus creadores? ¿Qué sesgo podrían tener?
  • Vigilancia
    ¿Puede un gobierno o ejército convertir la tecnología en una herramienta de vigilancia o usarla para limitar los derechos de los ciudadanos? ¿Los datos recopilados permiten seguir a los usuarios a lo largo de su vida? ¿A quién no le gustaría tener acceso a estos datos para sus fines?
  • Control de datos
    ¿Qué datos estás recopilando? ¿Lo necesitas? ¿Te beneficias de ello? ¿Están sus usuarios compartiendo ese beneficio? ¿Los usuarios tienen derechos sobre sus datos? ¿Qué harían los malos actores con estos datos? ¿Qué sucede con los datos si se adquiere su empresa?
  • Confianza implícita
    ¿Su tecnología tiene derechos de usuario? ¿Los términos son claros y fáciles de entender? ¿Estás ocultando información a los usuarios que les pueden interesar? ¿Pueden los usuarios aceptar y rechazar ciertos aspectos mientras siguen usando la tecnología? ¿Todos los usuarios son iguales?
  • Odio y otros delitos
    ¿Se puede utilizar la tecnología para la intimidación o el acoso? ¿Se puede utilizar para difundir el odio, discriminar a los demás? ¿Se puede armar?

Hay muchas áreas a considerar, pero cada una tiene sus propias implicaciones que no son cosa de risa. Ethical OS dice que una vez que se identifican los riesgos con un posible desarrollo de IA, se pueden compartir entre las partes interesadas para examinar completamente el problema.

Avanzando hacia un futuro inteligente y ético

El panel al que asistí en el Congreso de IA y la Cumbre de ciencia de datos concluyó con estrategias adicionales para ayudar a los desarrolladores de IA a avanzar de manera más ética. ¡Dijeron que la ética tecnológica debería integrarse en la cultura empresarial y ser parte de una visión corporativa y que los cazarrecompensas éticos de IA podrían operar de manera similar a como lo hacen los cazadores de insectos!

Con las principales legislaciones de privacidad del consumidor como GDPR y la Ley de Privacidad del Consumidor de California de 2018 que entran en juego, ya estamos viendo cómo las políticas darán forma a los avances en la ciencia de datos.

Algunas hipótesis sugieren que las regulaciones ralentizarán el desarrollo de la IA. Si bien eso puede suceder en el proceso, si los consumidores tienen más confianza en que sus datos e información personal no se están utilizando indebidamente, puede aumentar la confianza en el proceso. Eso podría incluso conducir a un mayor uso y adopción, quién sabe.

Ciertamente no tenemos todas las respuestas, pero estamos prestando mucha atención a la discusión.

Créditos de imagen

Imagen destacada: Unsplash / Markus Spiske