Cuando primero tienes que imaginar qué significa el término "inteligencia artificial ética", puede ser muy fácil pensar inmediatamente en la IA ficticia, como alguna tecnología vinculada a Skynet que solo sirve para tomar el control del mundo. La inteligencia artificial (IA) está mejorando drásticamente cada año, pero afortunadamente la idea de que las máquinas desarrollen un cerebro y tomen el control de la raza humana no es factible (todavía).
Varias aplicaciones de IA pueden ser bastante aburridas en cuanto a su uso diario, aunque ayudan a mejorar nuestras vidas. Tome por ejemplo Google Home o Amazon Alexa, donde la tecnología revolucionaria está oculta en un asistente virtual. Contienen procesamiento del lenguaje natural (NLP) para ayudar a mejorar la forma en que la IA se comunica con los usuarios. La IA puede utilizarse de innumerables formas más, la encontrarás automatizando tareas de oficina o analizando grandes volúmenes de datos.
La IA mejora constantemente gracias a investigadores y académicos que trabajan en crear nuevas aplicaciones o enfoques para que las empresas las utilicen. Es esencial, sin embargo, que a medida que la tecnología mejora, existan conversaciones en torno a la ética de la IA, ya que está en la base de aplicaciones que podrían afectar nuestra privacidad o derechos de protección de datos. Un ejemplo de esto es el reconocimiento facial, que es utilizado por las fuerzas de seguridad, a veces sin el conocimiento del público, y es visto como altamente controvertido.
Cuando se trata de IA ética, un problema bien conocido se centra en cómo estos algoritmos llegan a conclusiones. Dado que los algoritmos no suelen ser transparentes, puede ser difícil saber si sus conjuntos de datos contienen algún tipo de sesgo que se tenga en cuenta cuando el sistema llega a su conclusión. Un problema con el desarrollo de IA que busca producir resultados similares a los humanos es que no estamos seguros de si estos sistemas consideran cuestiones éticas que los humanos tendrían en cuenta al tomar una decisión.
Es precisamente por estas preguntas que llegamos a la idea de ética: es decir, los principios morales que rigen las acciones de un individuo o grupo, o en este caso, una máquina. Esto quiere decir que la ética en la IA no concierne simplemente a la aplicación de la tecnología: los resultados y predicciones de la IA son igualmente importantes.
Los sistemas de IA representan una divergencia respecto a las computadoras tradicionales que basan sus resultados en principios matemáticos. Si introduces 4 + 4 en una computadora, la respuesta siempre debería ser 8, independientemente de lo sofisticada que sea. Con el desarrollo de aplicaciones, se puede crear un nuevo software para satisfacer diversas necesidades, pero siempre se basa en un lenguaje de codificación preestablecido. En ese sentido, no hay ambigüedad sobre qué debe o no debe ser el resultado.
Consideremos el ejemplo de un sistema diseñado para determinar cuán feliz es una persona basándose en sus características faciales. Un sistema necesitaría entrenarse con una variedad de demografías para tener en cuenta todas las combinaciones posibles de raza, edad y género. Más aún, incluso si asumiéramos que el sistema puede tener en cuenta todo eso, ¿cómo establecemos con certeza qué aspecto tiene la felicidad?
El sesgo es uno de los principales problemas con la inteligencia artificial, ya que su desarrollo siempre se basa en las decisiones de los investigadores involucrados. Esto efectivamente hace imposible crear un sistema completamente neutral, y explica por qué el campo de la ética en la IA es tan importante.
La roboética, o ética robótica, es el principio de diseñar sistemas de inteligencia artificial utilizando códigos de conducta que aseguren que un sistema automatizado pueda responder a situaciones de manera ética. Es decir, asegurar que un robot se comporte de manera que encaje dentro del marco ético de la sociedad en la que opera.
Al igual que la ética tradicional, la roboética implica asegurar que cuando un sistema capaz de tomar sus propias decisiones entre en contacto con humanos, sea capaz de priorizar la salud y el bienestar del ser humano por encima de todo, comportándose además de una manera considerada apropiada para la situación.
La roboética suele tener un peso importante en las discusiones en torno al uso de la inteligencia artificial en situaciones de combate, siendo una corriente de pensamiento popular la que sostiene que los robots nunca deberían construirse específicamente para dañar o matar seres humanos.
Aunque la roboética generalmente se centra en la acción resultante del robot, el campo solo se preocupa por los pensamientos y acciones del desarrollador humano detrás de él, más que por el robot mismo. Para abordar esto, recurrimos a la ética de las máquinas, que se enfoca en el proceso de añadir comportamientos morales a las máquinas de inteligencia artificial.
Algunos pensadores del sector, sin embargo, han atacado la idea de la IA ética, diciendo que no es posible tratar a robots e inteligencia artificial como si fueran sus contrapartes humanas.
El famoso informático Joseph Weizenbaum argumentó desde los años 60 que los seres no humanos no deberían utilizarse en roles que dependen de la interacción o construcción de relaciones humanas. Dijo que roles de responsabilidad como los de atención al cliente, terapeutas, cuidadores de ancianos, policías, soldados y jueces nunca deberían reemplazarse por inteligencia artificial, ya sea robots físicos o cualquier otro sistema que vaya en contra de la intuición humana.
En estos roles, los humanos necesitan experimentar empatía y, sin importar cuán humanas sean las interacciones con la inteligencia artificial, nunca podrán reemplazar las emociones experimentadas en escenarios donde existen estos puestos de trabajo.
El Reino Unido está tomando un papel central en la evolución de la IA ética. La ex primera ministra Theresa May se comprometió a desarrollar un Centro para la Ética y Innovación en Datos que asegure que la sociedad esté preparada para tecnologías basadas en datos.
"Desde ayudarnos a lidiar con los novedosos problemas éticos planteados por tecnologías en rápido desarrollo como la inteligencia artificial, acordar mejores prácticas en el uso de datos hasta identificar posibles nuevas regulaciones, el Centro establecerá las medidas necesarias para construir confianza y permitir la innovación en tecnologías basadas en datos", dijo May. "La confianza sustenta una economía fuerte, y la confianza en los datos sustenta una economía digital fuerte."
En abril, la Comisión Europea publicó un conjunto de directrices para el desarrollo ético de la inteligencia artificial, siendo una de las principales la necesidad de una supervisión humana constante.
Google fue una de las primeras empresas en comprometerse a que su IA solo se utilizaría de manera ética, es decir, nunca se diseñaría para convertirse en un arma. Sundar Pichai, director ejecutivo de la empresa, dijo que Google no participaría en vigilancia mediante IA tampoco.
Google publicó su código ético de práctica en junio de 2018 en respuesta a las críticas generalizadas sobre su relación con el programa de armas del gobierno estadounidense. Desde entonces, la empresa ha declarado que ya no cooperará con el gobierno estadounidense en proyectos que pretendan convertir algoritmos en armas.
Amazon, Google, Facebook, IBM y Microsoft se han unido para desarrollar mejores prácticas para la IA, con una gran parte examinando cómo debería y podría utilizarse la IA de manera ética, así como compartiendo ideas sobre la educación del público acerca de los usos de la IA y otros temas relacionados con la tecnología.
El consorcio explicó: "Esta asociación en IA realizará investigaciones, organizará discusiones, proporcionará liderazgo de pensamiento, consultará con terceros relevantes, responderá preguntas del público y medios de comunicación, y creará material educativo que avance en la comprensión de las tecnologías de IA, incluyendo la percepción, aprendizaje y razonamiento automático."
Tras un desastroso experimento con su chatbot en línea Tay en marzo de 2016, Microsoft ha tomado medidas para reformular sus políticas internas respecto al desarrollo de IA, especialmente cuando involucran casos de uso sensibles. Esto incluye la creación de la Oficina para la IA Responsable, encargada de recomendar e implementar políticas de IA a través del negocio, y el llamado Comité Aether (Inteligencia Artificial, Ética y Efectos en Ingeniería e Investigación), un órgano asesor no vinculante compuesto por partes interesadas clave.
Microsoft también ha colaborado con la Unión Europea en el desarrollo de un marco regulatorio para la IA, cuya versión preliminar finalmente se publicó el 21 de abril de 2021. Bajo las regulaciones propuestas, los ciudadanos de la UE estarán protegidos del uso de IA para vigilancia masiva por parte de las fuerzas del orden, algo que fue declarado ilegal en el Reino Unido el año pasado. El uso de IA en reclutamiento, evaluación de puntaje crediticio, así como en gestión de control fronterizo también se clasificará como "de alto riesgo" debido a preocupaciones por discriminación, mientras que los sistemas que permitan la "calificación social" por gobiernos estarán prohibidos.
Las empresas que incumplan las reglas enfrentarán multas de hasta el 6% de su facturación global o 30 millones de euros, lo que sea mayor, ligeramente superior a las ya elevadas multas impuestas por el RGPD. Ahora la Comisión Europea tendrá que negociar los detalles de las regulaciones propuestas con los gobiernos nacionales de la UE y el Parlamento Europeo antes de que las reglas puedan entrar en vigor, un proceso que puede tardar varios años.
Mientras tanto, en el Reino Unido, el Congreso de Sindicatos (TUC, por sus siglas en inglés) está pidiendo una mayor protección legal para los trabajadores a medida que el uso de IA para decisiones relacionadas con empleados, como contrataciones y despidos, se vuelve más común en el lugar de trabajo. Ejemplos recientes de esto incluyen las denuncias realizadas por antiguos trabajadores de Uber Eats, que acusaron al servicio de entrega de comida de despidos injustificados después de que el software de identificación facial utilizado por la empresa fuera incapaz de reconocer sus rostros. El sistema, conocido como herramienta de "comparación de fotos", pide a los mensajeros y conductores de Uber que tomen una fotografía de su rostro, que luego es autenticada mediante IA comparándola con una fotografía en la base de datos de la empresa. Por lo tanto, según el TUC, los empleadores que busquen utilizar IA "de alto riesgo" deberían tener la obligación legal de consultar con sindicatos.
Descarga gratuita
Estrategias de gestión de datos inteligentes, automatizadas y nativas de la nube para acelerar el tiempo de retorno y la rentabilidad Descarga gratuita
El problema de fricción de $260 mil millones que las empresas no conocen Descarga gratuita
Seguridad robusta para proteger y habilitar su negocio Descarga gratuita
Aprende los Fundamentos de la Inteligencia Artificial: En este emocionante currículo, los estudiantes explorarán los conceptos básicos de la inteligencia artificial. Desde principios fundamentales hasta aplicaciones prácticas, descubrirán cómo la IA está...
El uso de la inteligencia artificial plantea importantes cuestiones éticas: Muchos argumentan que la IA debe utilizarse para mejorar la vida de las personas, mientras que otros sostienen que podría tener efectos negativos en la sociedad. En este artículo, examinaremos...
Inteligencia artificial y ética: La inteligencia artificial (IA) es una tecnología poderosa que tiene el potencial de transformar muchos aspectos de nuestras vidas, desde la atención médica y la educación hasta el transporte y el...
Ética de la inteligencia artificial: La inteligencia artificial se extiende globalmente. Incorpora tecnologías como el aprendizaje automático y el procesamiento del lenguaje natural (NLP), que ayudan a los seres humanos a tomar...
Ventajas de vivir en un mundo de máquinas: Mayor eficiencia: Los sistemas impulsados por inteligencia artificial pueden realizar tareas más rápido y con mayor precisión que los humanos. Esta eficiencia se traduce en una mayor productividad en...
Introducción a la ética de la inteligencia artificial: En la actualidad, vemos la inteligencia artificial (IA) como una forma de facilitar las tareas y brindar comodidad a nuestras vidas mediante la automatización, detección de fraudes, optimización...