La mente humana ha seguido siendo inexplicable y misteriosa durante mucho, mucho tiempo. Y parece que los científicos han reconocido un nuevo contendiente en esta lista: la Inteligencia Artificial (IA). Al principio, entender la mente de una IA suena bastante contradictorio. Sin embargo, a medida que la IA se vuelve gradualmente más sensible y evoluciona para imitar a los humanos y sus emociones, somos testigos de fenómenos innatos en humanos y animales: las alucinaciones.
Sí, parece que el mismo viaje que emprende la mente cuando es abandonada en un desierto, desechada en una isla o encerrada sola en una habitación sin ventanas ni puertas lo experimentan también las máquinas. Alucinación de IA es real y los expertos y entusiastas de la tecnología han registrado múltiples observaciones e inferencias.
En el artículo de hoy, exploraremos este aspecto misterioso pero intrigante de Modelos de lenguaje grande (LLM) y conozca datos curiosos sobre las alucinaciones de la IA.
¿Qué es la alucinación por IA?
En el mundo de la IA, las alucinaciones no se refieren vagamente a patrones, colores, formas o personas que la mente pueda visualizar lúcidamente. En cambio, la alucinación se refiere a hechos y respuestas incorrectos, inapropiados o incluso engañosos. Herramientas de IA generativa proponer indicaciones.
Por ejemplo, imaginemos que le preguntamos a un modelo de IA qué es un telescopio espacial Hubble y éste comienza a responder con una respuesta como: “La cámara IMAX es una película especializada de alta resolución…”.
Esta respuesta es irrelevante. Pero, lo que es más importante, ¿por qué el modelo generó una respuesta que es tangencialmente diferente del mensaje presentado? Los expertos creen que las alucinaciones pueden deberse a múltiples factores, como:
- Mala calidad de los datos de entrenamiento de IA
- Modelos de IA demasiado confiados
- La complejidad de los programas de procesamiento del lenguaje natural (PNL)
- Errores de codificación y decodificación.
- Ataques adversarios o hackeos de modelos de IA
- Divergencia fuente-referencia
- Sesgo de entrada o ambigüedad de entrada y más
Las alucinaciones por IA son extremadamente peligrosas y su intensidad sólo aumenta a medida que se especifica más su aplicación.
Por ejemplo, una herramienta GenAI alucinante puede provocar una pérdida de reputación para una empresa que la implemente. Sin embargo, cuando se implementa un modelo de IA similar en un sector como el de la salud, cambia la ecuación entre la vida y la muerte. Visualice esto: si un modelo de IA alucina y genera una respuesta al análisis de datos de los informes de imágenes médicas de un paciente, sin darse cuenta puede informar que un tumor benigno es maligno, lo que resulta en una desviación del curso del diagnóstico y tratamiento del individuo.
Comprender los ejemplos de alucinaciones de IA
Las alucinaciones de IA son de diferentes tipos. Entendamos algunos de los más destacados.
Respuesta objetivamente incorrecta de la información.
- Respuestas falsas positivas, como marcar la gramática correcta en el texto como incorrecta.
- Falsas respuestas negativas, como pasar por alto errores obvios y pasarlos por genuinos.
- Invención de hechos inexistentes
- Obtención incorrecta o manipulación de citas
- Exceso de confianza al responder con respuestas incorrectas. Ejemplo: ¿Quién cantó Here Comes Sun? Metálica.
- Mezclar conceptos, nombres, lugares o incidentes
- Respuestas extrañas o aterradoras como la popular risa demoníaca autónoma de Alexa y más
Prevenir las alucinaciones de la IA
Información errónea generada por IA de cualquier tipo pueden ser detectados y reparados. Esa es la especialidad de trabajar con IA. Nosotros inventamos esto y podemos arreglarlo. Aquí hay algunas formas en que podemos hacer esto.
Limitar las respuestas
Dicen que no importa cuántos idiomas hablemos. Necesitamos saber cuándo dejar de hablar en todos ellos. Esto también se aplica a los modelos de IA y sus respuestas. En este contexto, podemos restringir la capacidad de un modelo para generar respuestas a un volumen específico y mitigar las posibilidades de que produzca resultados extraños. Esto se llama Regularización y también implica penalizar a los modelos de IA por generar resultados extremos y extendidos según las indicaciones.
Fuentes relevantes y herméticas para citar y extraer respuestas
Cuando entrenamos un modelo de IA, también podemos limitar las fuentes a las que un modelo puede hacer referencia y extraer información a fuentes legítimas y creíbles. Por ejemplo, los modelos de IA para el cuidado de la salud como el que analizamos anteriormente solo pueden hacer referencia a fuentes que sean creíbles en información cargada de imágenes médicas y tecnologías de imágenes. Esto evita que las máquinas encuentren y correlacionen patrones de fuentes bipolares y generen una respuesta.
Definición del propósito de un modelo de IA
Los modelos de IA aprenden rápido y sólo necesitan que se les diga exactamente qué deben hacer. Al definir con precisión el propósito de los modelos, podemos entrenarlos para que comprendan sus propias capacidades y limitaciones. Esto les permitirá validar de forma autónoma sus respuestas alineando las respuestas generadas con las indicaciones de los usuarios y su propósito de ofrecer resultados limpios.
Supervisión humana en IA
Entrenar sistemas de IA es tan importante como enseñar a un niño a nadar o andar en bicicleta por primera vez. Requiere supervisión, moderación, intervención y apoyo de un adulto. La mayoría de las alucinaciones de la IA ocurren debido a la negligencia humana en diferentes etapas del desarrollo de la IA. Al implementar a los expertos adecuados y garantizar un flujo de trabajo humano involucrado para validar y examinar las respuestas de la IA, se pueden lograr resultados de calidad. Además, los modelos se pueden perfeccionar aún más para lograr exactitud y precisión.
Shaip y nuestro papel en la prevención de las alucinaciones por IA
Una de las otras fuentes principales de alucinaciones son los datos deficientes sobre el entrenamiento de la IA. Lo que alimentas es lo que obtienes. Es por eso que Shaip toma medidas proactivas para garantizar la entrega de datos de la más alta calidad para su entrenamiento de IA generativa necesariamente.
Nuestros estrictos protocolos de garantía de calidad y conjuntos de datos de origen ético son ideales para sus visiones de IA a la hora de ofrecer resultados limpios. Si bien los fallos técnicos pueden resolverse, es vital que las preocupaciones sobre la calidad de los datos de capacitación se aborden a nivel básico para evitar volver a trabajar en el desarrollo del modelo desde cero. Por eso tu IA y LLM La fase de entrenamiento debe comenzar con conjuntos de datos de Shaip.