GenAI es un conjunto de tecnologías que pueden generar contenido, como texto, imágenes, audio, videos e incluso código de programación. Por ejemplo, los últimos anuncios de OpenAI ofrecen capacidades "multi-modales" donde un solo el modelo de IA es capaz de trabajar en varios dominios, como lenguaje, audio, imagen, video y 3D, junto con un razonamiento complejo. Imagine un asistente que puede entender video + 3D + audio y voz, si los combina en un video, ¿imagina la ganancia en términos de productividad que se puede alcanzar?
En resumen, GenAI es un asistente que aumenta nuestra capacidad de ser más eficientes en la forma en que hacemos las cosas. Necesitamos aprender a utilizarlo efectivamente; cuanto más entendemos, mejores resultados obtenemos. Si cada médico tuviera una asistente GenAI para ayudar en el diagnóstico de enfermedades complejas mediante el análisis de notas clínicas, imágenes médicas e historial del paciente, ¿cuánto podría mejorar el diagnóstico?
En este artículo, pretendo desmitificar los mitos en torno a GenAI y enfocarme en su realidad práctica, basándome en el primer conjunto de lecciones aprendidas por Orange Business en nuestro compromiso con los clientes. Aquí, sintetizo seis aprendizajes sobre GenAI. Comprenderlas ayudará a las empresas a evitar trampas comunes y acelerar la adopción.
1. La IA Generativa es solo la punta del iceberg
GenAI es un modelo matemático basado en algoritmos avanzados y datos de entrenamiento. Un buen modelo depende de datos en gran volumen y de buena calidad. Para procesar esa cantidad de datos, es necesario tener una amplia capacidad de cómputo, almacenamiento y análisis, alimentada por la Nube/Edge y habilitada por redes de alta calidad. La respuesta de GenAI se basa en los datos en los que la tecnología fue entrenada, y su "creatividad" es el resultado del procesamiento y la recombinación de información existente de maneras nuevas.
En nuestra experiencia trabajando con clientes corporativos, cuando se trata de usar GenAI en un contexto profesional, las herramientas probablemente carecerán del entendimiento de vocabulario específico, como siglas, conceptos técnicos y funciones laborales particulares de esa empresa. Esto se debe a que la mayoría de GenAI se alimenta de fuentes públicas de datos. Por lo tanto, es natural que sea necesario hacer una personalización o ajuste para esa realidad.
La calidad de los datos surge como un desafío enorme. Las empresas deben invertir en la construcción de bases de datos sólidas con infraestructura en la nube, conectividad y ciberseguridad best-in-class para desbloquear todo el potencial de GenAI. También deben establecer una gobernanza de datos sólida, que desarrolle y haga cumplir políticas como sensibilidad de datos, ciclo de vida de los datos, etc. Especialmente en grandes organizaciones, esto puede ser muy desafiante. Las empresas necesitan calidad de datos y gobernanza de datos para reducir el riesgo de que GenAI produzca resultados inexactos o viole la privacidad de los datos.
2. La IA Generativa no es One-size-fits-all
Si hubieras construido un modelo de generación de texto hace diez años, tendrías que entrenarlo desde cero durante meses. Una de las principales diferencias de GenAI es que tenemos modelos fundamentales preentrenados, llamados Large Language Models (LLMs), que se personalizan, entrenan y perfeccionan a partir de una cantidad mucho menor de datos para cumplir con el resultado deseado. Esto reduce costo y disminuye la barrera de entrada, permitiendo que las empresas innoven sobre los LLMs existentes.
Además de estas nuevas técnicas para aprovechar los modelos fundamentales, hay una variedad de tamaños y capacidades de modelos, desde grandes modelos que satisfacen la gran mayoría de las necesidades, hasta modelos pequeños, llamados Small Language Models (SLMs), dirigidos a tareas específicas. Los SLMs son versiones más pequeñas de sus homólogos LLM y, por lo tanto, son más eficientes en tareas específicas y también tienen costos más bajos. Tienen significativamente menos parámetros en comparación con cientos de miles de millones o incluso billones de los LLMs, por lo que no son tan buenos en preguntas "genéricas", de amplio alcance, y admiten solo un tipo de entrada, como texto o imágenes, a diferencia de los modelos multimodales.
Aprendimos que es crucial adoptar un enfoque basado en resultados para encontrar la solución adecuada. A menudo, la necesidad comercial puede resolverse con un modelo existente, un SLM o encadenando varios modelos pequeños juntos. En muchos casos, no necesitamos GenAI, o solo la necesitamos para una pequeña parte de la solución general.
3. De 'Cuanto Mayor, Mejor' a 'LLMs Contextuales'
En 2023, vimos el surgimiento de LLMs y su dominación en los debates sobre IA con la capacidad mágica de resolver cualquier problema. Si bien los datos son el oxígeno de la IA, el enfoque debe ser proporcionar a la IA la mayor cantidad de contexto relevante e imparcial posible para lograr los resultados correctos. Es como encontrar una aguja en un pajar; para cumplir la tarea más rápidamente, cambias el color/forma de la aguja (o del pajar), usas un imán o coordinas varias búsquedas paralelas.
Este descubrimiento impulsa los avances de LLMs especializados por sectores, aumentados con contexto de negocios particulares para resolver problemas específicos. Por ejemplo, en Recursos Humanos, Mercer está utilizando LLM para automatizar el proceso de reclutamiento. En el ámbito legal, Harvey AI y CaseHOLD revolucionaron la gestión de tareas legales, realizando análisis de contratos y resúmenes de conformidad legal. En el sector financiero, BloombergGPT analiza datos financieros, y en el ámbito de la salud, Med-PaLM de Google DeepMind procesa notas clínicas, resultados de laboratorio e imágenes médicas, entre otras. Preveo que pronto surgirán mercados de LLMs contextuales donde se pueda elegir el tipo de modelo basado en el contexto corporativo y el problema que se desea resolver.
4. ¿Están listas las redes para GenAI?
GenAI no existe en el vacío. Al igual que necesita una base de nube y datos sólida, también requiere una red inteligente de alto rendimiento, que admita arquitecturas de red de datos complejas, desde el borde hasta la nube, para solicitudes/respuestas rápidas, ajuste fino del modelo, inferencia y entrenamiento. Omdia predice que para 2030, casi dos tercios del tráfico de red involucrará IA, impulsado por contenido generado por IA, como video e imágenes. Esto exige que las redes globales estén listas para transportar ZettaBytes (como en 1,000 ExaBytes o 1,000,000 PetaBytes) y soportar el cambio de aplicaciones existentes a IA, así como nuevas aplicaciones totalmente nativas en IA.
Inicialmente, los LLMs estaban diseñados para ejecutarse en una infraestructura de nube centralizada y potente. El año pasado, surgieron varias variantes de LLM que pueden ejecutarse en la nube, en el borde de la red, así como en dispositivos individuales. Por ejemplo, Google Gemini introdujo tres variantes: Ultra, Pro y Nano; el Gemini Nano puede ejecutarse en dispositivos Android. También esperamos que Apple y muchas otras empresas de electrónica de consumo produzcan e incorporen LLMs en sus productos. La ejecución de estos modelos de IA muy pequeños en los dispositivos crea nuevos casos de uso que hacen que GenAI sea altamente personalizada y reducen los riesgos de privacidad de los datos, pero no serán tan sofisticados como los de la nube. Estas arquitecturas diversas y complejas para implementaciones de GenAI demandan una revisión de la estructura de red y conectividad.
5. ¿GenAI generará nuevos empleos o los reemplazará?
Una de las predicciones más sorprendentes para la IA generativa en 2030 es su potencial para automatizar hasta el 30% de las horas trabajadas actualmente en la economía de los EE. UU. Un estudio realizado por investigadores del MIT sobre el impacto de GenAI en trabajadores altamente calificados encontró que puede mejorar el rendimiento de los trabajadores hasta en un 40% en comparación con aquellos que no la usan. El mismo estudio encontró más ganancias de GenAI para recursos menos calificados en comparación con grupos más calificados. Un estudio de McKinsey muestra que los desarrolladores de software pueden completar tareas de codificación hasta dos veces más rápido con GenAI. Los profesionales del área de conocimiento, como abogados y científicos, también pueden acelerar sustancialmente sus cargas de trabajo utilizando la IA para analizar infinidad de datos instantáneamente.
Aunque el veredicto aún está pendiente sobre este tema, mi convicción es que GenAI está automatizando tareas, no empleos, y, por lo tanto, los empleados habilitados por IA acabarán reemplazando a aquellos que no están habilitados por IA. Esta convicción se ha demostrado verdadera para los ciclos de tecnología disruptiva que hemos visto en las últimas tres décadas con computadoras, internet, dispositivos móviles, etc., y la Revolución Industrial, antes de ellos.
6. La confianza sigue siendo una condición clave para impulsar la adopción a gran escala
Con muchos conceptos equivocados sobre su aplicación práctica, no es sorprendente que GenAI esté actualmente en la cima de lo que Gartner llama "la cúspide de la expectativa inflada". La IA presenta sus desafíos: impacto ambiental, influencia en la productividad, retorno de inversión, gestión de habilidades, regulación y ética. Estoy convencido de que no habrá adopción masiva sin confianza.
La confianza es más crucial en un momento en que solo un tercio de la población francesa cree que la IA presenta más ventajas que desventajas. Una encuesta global con 11,000 empleados realizada por BCG revela que cuanto más la usas, más confías en ella, pero también le temes. Una parte significativa de los empleados ve la IA como una amenaza, con las mayores proporciones entre aquellos que ya usan la tecnología. En Orange, participamos en el Programa de Acceso Anticipado (EAP) de Microsoft Copilot, y la conformidad con los datos, así como una curva de aprendizaje pronunciada, fueron grandes obstáculos antes de que se pudieran lograr ganancias significativas de productividad.
Los gobiernos se apresuraron a tomar posición sobre cómo gobernar el uso de la IA a través de regulaciones. La administración Biden emitió reglas para GenAI en octubre a través de una orden ejecutiva que detalla ocho objetivos, incluidos estándares de seguridad y uso responsable de la IA. En diciembre, la Comisión Europea emitió la primera versión del AI Act para regular el uso de sistemas de IA en la Unión Europea. Investigadores de la Universidad Stanford estudiaron 10 modelos grandes de lenguaje (LLMs) populares y descubrieron que solo cuatro modelos obtuvieron puntuaciones satisfactorias, con el modelo de código abierto Bloom destacándose con una puntuación de 36 sobre 48. La falta de transparencia entre los proveedores, que no divulgan suficiente información sobre sus modelos y los riesgos asociados con su uso, se destacó como una preocupación clave.
La violación del copyright y propiedad intelectual es una preocupación creciente; recientemente, el New York Times demandó a OpenAI y Microsoft por 'uso ilegal' de su contenido para entrenar sistemas GenAI y LLMs, ya que supuestamente se encontró material del New York Times siendo utilizado por ChatGPT. GenAI plantea preocupaciones significativas en torno a cuestiones de derechos de autor, y seguramente tenemos mucho que aprender en este espacio, ya que estas son tecnologías totalmente nuevas y necesitaremos que la ley, al igual que nuestra comprensión de su lugar en la sociedad, se adapte.
En conclusión, sí, hay mucha agitación en torno a GenAI, sin embargo, no podemos negar el increíble potencial de esta nueva tecnología para transformar nuestras formas de vida digital. Como veterano de la tecnología, habiendo visto muchos ciclos de agitación, como internet, móviles, nube, IoT, digital twin, blockchain, etc., he aprendido que la agitación es un gran 'mecanismo de negocios' que nos permite hacer la transición de lo posible a lo práctico. Aunque la adopción a gran escala de GenAI aún está a 2 a 5 años de distancia, cuando cada producto y cada software tendrán algún tipo de funcionalidad de GenAI, es fundamental comenzar con pruebas pequeñas y simples, evitando las trampas comunes.
Chief Products and Marketing Officer en Orange Business, Usman Javaid, PhD aporta un amplio conocimiento del mercado empresarial, tanto en el ámbito de las telecomunicaciones como en el digital. Anteriormente, fue Director General de Entrega de Servicios Profesionales en AWS, acumulando más de 20 años de experiencia centrados en la creación de productos tecnológicos innovadores y en la dirección de transformaciones empresariales a gran escala.