La IA Generativa es un tipo de inteligencia artificial (IA) que crea contenido realista como imágenes, textos y videos. Funciona mediante una red neuronal que aprende de un conjunto de datos y luego genera nuevo contenido basado en lo que "aprendió". Sin embargo, la IA generativa puede causar daños serios si no se usa responsablemente, como riesgos de privacidad, sesgos, amenazas de seguridad, falta de transparencia, costos ambientales, entre otros.
Para mitigar estos riesgos y aprovechar al máximo esta tecnología emocionante, las empresas deben implementar marcos de IA Responsable (RAI) basados en estándares líderes y mejores prácticas.
La IA ha avanzado rápidamente en los últimos años, llevando a nuevas aplicaciones y oportunidades. La IA generativa es una de esas aplicaciones que ha ganado atención significativa, en forma de chatbots como ChatGPT o filtros de deepfake que parecen realistas. En esta publicación, explicaremos qué es la IA generativa, cómo funciona, qué riesgos presenta y qué puedes hacer para dar forma a la responsabilidad de la IA generativa en nuestra sociedad.
Con el reciente auge del interés en la IA alrededor del lanzamiento del chatbot de OpenAI, ChatGPT, ha habido mucha conversación sobre la IA generativa. La IA generativa es un tipo de IA que "aprende" de grandes cantidades de datos y luego crea nuevos datos o contenido. Puede generar desde texto, imágenes, videos e incluso música, con el objetivo de crear algo similar a lo que un artista humano podría crear.
Ejemplos de modelos de lenguaje grande (LLMs) incluyen Bard, ChatGPT y CoPilot, mientras que otros tipos de IA generativa generan arte, como Midjourney o NightCafe.
La IA generativa funciona mediante una técnica llamada aprendizaje profundo (deep learning). El aprendizaje profundo es un subconjunto del aprendizaje automático (machine learning) que utiliza redes neuronales artificiales para aprender de los datos. Los modelos de IA generativa utilizan un tipo específico de red neuronal llamada Red Generativa Adversarial (GAN). Una GAN consiste en dos redes, un generador y un discriminador.
El generador crea nuevo contenido aprendiendo patrones y tendencias de un conjunto de datos. Luego crea contenido nuevo alterando y combinando datos existentes en el conjunto de datos. El discriminador evalúa el nuevo contenido y determina si es real o generado. El generador luego usa esta retroalimentación para crear contenido mejor y más convincente.
En resumen, la IA generativa usa algoritmos de aprendizaje automático para aprender patrones y tendencias de un conjunto de datos. Luego genera nuevo contenido emocionante basado en ese aprendizaje.
Varias empresas han diseñado modelos de IA generativa para uso público. Una de esas empresas es OpenAI, que lanzó su sistema de IA llamado GPT 3 o ChatGPT en noviembre de 2019. ChatGPT puede generar texto similar al humano basado en un prompt dado. Por ejemplo, dado un prompt como "Escribe un ensayo sobre la importancia del reciclaje", ChatGPT puede generar un ensayo convincente que lea como si lo hubiera escrito un humano.
En esta figura, vemos un ejercicio en imitar la creatividad artística humana a través de IA generativa. Este es un ejemplo de cómo una red neuronal convolucional, un tipo de modelo de aprendizaje profundo, puede analizar una imagen dada (por ejemplo, una calle con casas) y un estilo artístico dado (por ejemplo, "La Noche Estrellada" de Van Gogh) para aprender el estilo y aplicarlo a la imagen a través de múltiples capas de procesamiento.
La tecnología de IA generativa puede causar daño si no se usa responsablemente. Un riesgo es que pueda usarse para engañar a personas con videos e imágenes falsas, como deepfakes usados para estafar o malinterpretar a individuos. La IA generativa también puede causar daño con salidas sesgadas si solo se entrena con información de ciertos grupos, lo que puede llevar a resultados injustos y no representativos. Por ejemplo, cuando se le pide que describa o muestre a un "profesional en el lugar de trabajo", un sistema de IA entrenado con datos sesgados podría omitir fotos de mujeres, especialmente mujeres de color.
Además, los sistemas de IA también pueden generar salidas inexactas factualmente, incluso inventando o "alucinando" informes de investigación, leyes o eventos históricos en sus salidas. Esta "alucinación" ocurre cuando un sistema de IA aprende de datos y produce su propia información nueva, plausible pero fabricada. Esto puede ocurrir debido a problemas de calidad de datos y mitigación, como datos de entrenamiento sesgados o limitados y sobreajuste del modelo en respuesta a los datos.
También hay otros riesgos asociados con la IA generativa, como problemas de seguridad. Por ejemplo, la IA generativa puede depender de conjuntos de datos a gran escala que contienen información privada sobre individuos que puede obtenerse a través de prompts. Esto también plantea preocupaciones de propiedad intelectual en cuanto a las entradas y salidas del sistema de IA. Por ejemplo, un estudio reciente de más de 10,000 empleados encontró que el 15% de los empleados introdujo datos de la empresa en ChatGPT poniendo en riesgo a su empresa de una violación de seguridad.
Las violaciones de seguridad pueden ocurrir debido a la vulnerabilidad de un sistema de IA generativa a amenazas como robo de modelo, envenenamiento de datos y ataques adversarios. Otro riesgo es la falta de transparencia en los procesos de toma de decisiones de la IA, lo que puede confundir tanto a los usuarios como a los desarrolladores sobre las salidas del sistema y diluir las líneas de responsabilidad legal.
Todos podemos desempeñar un papel en ayudar a reducir el daño causado por la IA generativa tomando ciertos pasos. Aquí hay una visión general de lo que podemos hacer para promover la responsabilidad en la IA generativa basada en los riesgos mencionados anteriormente.
Las empresas tienen la obligación de desarrollar y utilizar sistemas de IA, incluyendo la IA generativa, responsablemente. Además, la IA responsable es buena para el negocio. Un estudio de Edelman mostró que el 81% de los consumidores prefieren comprar de empresas que priorizan la privacidad y seguridad de los datos. Además, una investigación de PwC encontró que el 60% de los consumidores están más dispuestos a confiar en empresas que son transparentes sobre su uso de la IA. Según un informe de Deloitte, un enfoque de IA confiable "puede mitigar riesgos que de otro modo reducirían la confianza en los sistemas de IA y frenarían la innovación en este sector crítico, mientras se enfoca la inversión en aplicaciones beneficiosas de la IA que pueden llevar al crecimiento económico y mejorar la salud, seguridad y bienestar".
Entonces, ¿cómo pueden asegurarse las empresas de que están mitigando el riesgo de sus propios productos de IA generativa o de la IA generativa de terceros que se usa con fines comerciales?
Los principios y marcos de IA responsable públicos son una práctica recomendada y demuestran un fuerte compromiso con la responsabilidad de la IA tanto para consumidores como para inversores. La IA generativa debe ser parte de los marcos más amplios de IA Responsable de una organización que guían cómo se diseña, desarrolla e implementa la IA. Estos marcos proporcionan directrices para gestionar los riesgos asociados con la implementación de la IA y pueden consistir en principios de IA generativa, evaluaciones de riesgo, capacitación y pruebas.
Desde estos marcos y principios, las empresas pueden y deben emitir políticas y guías empresariales para la IA generativa. Al hacerlo, pueden aclarar el papel de la IA generativa en la organización y compartir mejores prácticas en el funcionamiento de la IA generativa, como verificar hechos, preservar datos sensibles y propiedad intelectual, etc.
Por ejemplo, líderes en este espacio han hecho lo siguiente:
Para los consumidores, la conciencia de los riesgos de la IA generativa es un paso crítico. De esta manera, los consumidores pueden tomar decisiones informadas y protegerse de usos maliciosos de la IA generativa, como hackeo y robo de datos. Para mejorar su alfabetización en IA, es buena idea educarse sobre señales de alerta de fraude, los beneficios y desventajas de tecnologías específicas, signos reveladores de imágenes generadas por IA, entre otros.
Basado en esta investigación, puedes tomar pasos para proteger tu información personal con buena higiene de protección de datos personales. Esto podría incluir instalar un administrador de contraseñas, usar una VPN, agregar una extensión de navegador para prevenir cookies de seguimiento que recojan tu historial de navegación y hacer auditorías regulares de contraseñas. Al interactuar con IA generativa, ten cuidado de no introducir ninguna información confidencial o personal en el sistema de IA ya que podría usar esos datos para entrenamiento o como salida.
Además, los consumidores pueden influir en el mercado de IA generativa con sus decisiones de compra. Puedes elegir comprar o hacer negocios con herramientas de IA generativa con reputaciones sólidas y compromisos con el uso responsable de la IA. Para investigar esto, puedes buscar un sello de aprobación de organismos nacionales de estándares de IA, como una Certificación de IA Responsable (próximamente), u otras revisiones independientes del negocio. Por ejemplo, Consumer Reports probará y calificará productos contra sus principios, compartiendo información sobre qué aplicaciones no venden datos personales, por ejemplo.
Finalmente, los consumidores tienen el poder de influir en las acciones de reguladores y empresas usando sus voces para defender sus creencias y derechos. Puedes informar a tus representantes electos que te preocupan regulaciones específicas de IA y presionarlos a tomar acciones para asegurar que las herramientas de IA generativa sigan mejores prácticas globales.
Los reguladores juegan un papel vital en la mitigación de los riesgos de la IA generativa estableciendo estándares claros para el desarrollo y uso responsable de la IA. Se pueden imponer sanciones a empresas que violen estos requisitos y directrices responsables. Pueden asegurar que los sistemas de IA sean transparentes, explicables, responsables y respaldados por salvaguardas de mitigación de riesgos. Esto podría significar, por ejemplo, que las empresas deben proporcionar divulgaciones sobre cómo se usa el dato del consumidor y obtener consentimiento explícito antes de usar esos datos. Los reguladores también pueden requerir que las empresas cumplan con requisitos de evaluación de riesgo o auditoría antes y después de implementar sistemas de IA.
Un ejemplo de este tipo de regulación es el Reglamento General de Protección de Datos (GDPR) de la UE, que proporciona un marco legal para la protección de datos y privacidad. Este marco legal es clave para mitigar los riesgos de privacidad, uso malicioso y amenazas de seguridad de la IA generativa.
La UE está yendo más allá y desarrollando una regulación de IA líder, que incluye requisitos de auditoría, reglas de derechos de autor y otros requisitos teniendo en cuenta la IA generativa. Los EE.UU. han visto a legisladores introducir regulaciones específicas para IA generativa, mientras que China ha aprobado una ley específicamente para regular los deepfakes, un tipo de IA generativa.
La IA generativa es una tecnología que avanza rápidamente y que proporciona tanto beneficios increíbles para las empresas como riesgos significativos, como riesgos de privacidad y amenazas de seguridad.
Para aprovechar plenamente los beneficios de esta tecnología, es crucial mitigar estos riesgos y evitar los costos de pérdida de ingresos, pérdida de clientes y gastos legales. La investigación muestra los beneficios de operacionalizar este enfoque de gestión de riesgos en un marco empresarial. Para preparar tu negocio para el éxito con IA generativa, necesitarás una estrategia para el uso interno de IA generativa y ventas de IA generativa para proteger tu negocio y construir confianza con tus consumidores.
Pero descubrir cómo hacer esto en la práctica es más fácil decirlo que hacerlo. El Instituto de IA Responsable (RAI Institute) ofrece el apoyo que necesitas de expertos en IA - una Política de IA Generativa personalizada para las necesidades y objetivos de tu negocio. Basado en nuestro marco líder en la industria para la Implementación de IA Responsable, ofrecemos a nuestros miembros directrices inteligentes sobre IA generativa relacionadas con mejores prácticas corporativas, principios, capacitación del personal, privacidad, responsabilidad, todo basado en mejores prácticas, estándares y regulaciones de vanguardia. Informamos nuestro trabajo a través de nuestros consorcios enfocados en la IA generativa.
Quitaremos la incertidumbre sobre lo que significa ser responsable en cuanto a IA generativa y otros tipos de IA en este momento crítico.
¿Interesado en convertirte en miembro y desarrollar la política de IA generativa de tu negocio? Aprende más.
El Instituto RAI se enfoca en proporcionar herramientas para organizaciones y profesionales de IA para construir, comprar y suministrar sistemas de IA seguros y confiables, incluyendo sistemas de IA generativa. Nuestras ofertas proporcionan garantía de que los sistemas de IA se alinean con políticas internas existentes y emergentes, regulaciones, leyes, mejores prácticas y estándares para el uso responsable de la tecnología.
Promoviendo prácticas de IA responsable, podemos minimizar los riesgos de esta tecnología emocionante y asegurar que los beneficios de la IA generativa se aprovechen plenamente y se compartan por todos.
Para todas las consultas de medios, por favor refiérase a la Jefa de Marketing y Compromiso, Nicole McCaffrey, [email protected].
Beneficios y Riesgos de la Inteligencia Artificial: Con el rápido avance del paisaje tecnológico, un tema que constantemente capta la atención y genera debate es la Inteligencia Artificial (IA). A medida que la IA continúa permeando diversos aspectos...
En un mundo donde la tecnología evoluciona rápidamente, la Inteligencia Artificial (IA) se ha convertido en una parte crucial de nuestras vidas. Desde recomendar películas en plataformas de streaming...
La IA generativa: Una tecnología transformadora: La inteligencia artificial generativa (IA generativa) es una tecnología nueva con el potencial de transformar diversas industrias. Se trata de una tecnología universalmente aplicable que puede...
¿Puede la Inteligencia Artificial Mentir?: La Inteligencia Artificial (IA) se ha convertido en una parte integral de nuestras vidas diarias, desde asistentes virtuales hasta algoritmos de recomendación. Aunque estos sistemas suelen parecer...
Ética de la IA generativa: Examinando los riesgos y beneficios potenciales: Ética de la IA generativa: Visión general: La inteligencia artificial (IA) generativa es una rama de la inteligencia artificial que se centra en crear contenido nuevo basado en datos existentes, como...
Inteligencia Artificial Generativa: La inteligencia artificial generativa (IA generativa) engloba modelos o algoritmos diseñados para producir salidas totalmente novedosas, incluyendo texto, imágenes, vídeos, código, datos o...