Por jon
Publicado el 25 octubre, 2023
La inteligencia artificial generativa se ha convertido en un fenómeno imparable en Latinoamérica. Según una encuesta realizada por la empresa Noventiq, el 68.3% de los directivos encuestados en la región ya han implementado esta tecnología en sus compañías. La IA generativa ha atraído una atención especial en la región, especialmente en el ámbito corporativo, debido a su capacidad para optimizar procesos, redefiniendo así la forma de trabajar.
Según el Índice Latinoamericano de Inteligencia Artificial (ILIA), desarrollado por el centro chileno de IA Cenia con el apoyo del BID, Chile se posiciona como el país mejor preparado para la IA en Latinoamérica, seguido de Brasil, Uruguay, Argentina, México, Colombia, Perú, Costa Rica, Panamá, Ecuador, Paraguay y Bolivia.
En este contexto de expansión, es crucial que las compañías comprendan a fondo el alcance de esta tecnología para aprovecharla al máximo. También es esencial entender los desafíos que la IA plantea y cómo enfrentar los diversos escenarios que pueden surgir al aplicarla en el ámbito corporativo.
¿Qué Son las Alucinaciones de la IA?
Las “alucinaciones de la IA” son un término que se utiliza cuando el sistema de inteligencia artificial genera información incorrecta o inexacta. En otras palabras, es cuando esta tecnología comete errores o inventa datos. En una entrevista con Daniel Menal, director y responsable de Datos y Análisis en NTT Data, exploraremos a fondo estos “deslices en la matriz” y cómo evitarlos o, al menos, minimizar su impacto.
Menal resume este fenómeno explicando que “el sistema toma información de diversas fuentes y genera nuevo contenido, ya que es un modelo generativo. Sin embargo, este nuevo contenido no siempre es real, aunque para el modelo lo parezca”.
En cuanto a cómo prevenir estas situaciones, Menal señala que las soluciones varían según los ámbitos de aplicación. “En el campo de la salud, a menudo hay personas supervisando en tiempo real, ya que no se pueden mencionar síntomas o enfermedades basándose únicamente en lo que el modelo sugiere”, destaca el especialista.
Manejar las Alucinaciones
“El modelo debe ser capaz de identificar cuándo ocurre una alucinación. Esto es complicado debido a la gran variedad de situaciones posibles. Depende del sector, de la pregunta y de muchos otros factores. A día de hoy, la tecnología está trabajando en ello, pero aún no existe una solución concreta que elimine todos los errores o las alucinaciones”, comenta Menal.
A diferencia de otros modelos de inteligencia artificial, una IA generativa crea contenido nuevo a partir de la información disponible. Incluso si se configura para ser menos creativa, puede dar lugar a alucinaciones, ya que no solo busca y reproduce información, sino que también produce contenido nuevo. Aunque el riesgo no se puede eliminar por completo en la actualidad, sí se puede reducir de manera significativa.
“Por lo general, recomendamos a las compañías que comiencen con un proyecto interno, donde el impacto de las alucinaciones no será tan perjudicial como si afectara directamente al cliente final”, enfatiza Menal.
Protección de Datos
El experto destaca la importancia de proteger los datos de las compañías. Las grandes empresas suelen utilizar soluciones de IA generativa proporcionadas por gigantes informáticos como Microsoft, Google o AWS. Por lo general, las organizaciones evitan modelos como OpenAI, donde los datos pueden ser utilizados para entrenar al modelo, advierte Menal.
Lo esencial es adoptar un enfoque gradual y medido para que esta tecnología pueda optimizarse según las necesidades del cliente. Existen herramientas para ajustar los procesos y utilizar la tecnología de manera beneficiosa.
Hoy en día, la mayoría de las compañías desean incorporar la IA de alguna manera debido a los beneficios que puede aportar. En lugar de ver los desafíos que surgen en estos procesos como obstáculos, deben considerarse como parte de un camino hacia la mejora continua.