Muchas empresas del mundo financiero y de la industria de la salud están perfeccionando sus LLM en función de sus propios conjuntos de datos adicionales. Los LLM básicos se entrenan en Internet, pero con un ajuste fino, una empresa puede crear un modelo específicamente orientado a su caso de uso comercial. Una forma habitual de hacerlo es creando una lista de preguntas y respuestas y afinando un modelo a partir de ellas.
De hecho, OpenAI comenzó a permitir el ajuste fino de su modelo GPT 3.5 en agosto de 2023 utilizando un enfoque de preguntas y respuestas, y presentó un conjunto de nuevas opciones de ajuste fino, personalización y RAG para GPT 4 en su DevDay de noviembre. Esto es particularmente útil para aplicaciones de servicio al cliente y de soporte técnico, donde una empresa podría tener ya un banco de datos de preguntas frecuentes.
Las empresas de software que crean aplicaciones como las aplicaciones SaaS pueden utilizar el ajuste fino, afirma Greenstein, de PricewaterhouseCoopers. “Si tienes un patrón muy repetible, el ajuste fino puede reducir los costes”, afirma, pero para las implementaciones empresariales, RAG es más eficiente en hasta el 95% de los casos.
Empezar desde cero
Pocas empresas van a construir su propio LLM desde cero. El GPT 3 de OpenAI tiene 175 mil millones de parámetros y fue entrenado en un conjunto de datos de 45 terabytes y costó 4,6 millones de dólares entrenarlo. Y según el director ejecutivo de OpenAI, Sam Altman, el GPT 4 costó más de 100 millones de dólares. Ese tamaño es lo que le da a los LLM su magia y capacidad para procesar el lenguaje humano, con un grado de sentido común y la capacidad de seguir instrucciones.
“Si bien es posible crear un modelo LLM propio, se requiere una inversión significativa de datos y capacidad de procesamiento”, afirma Carm Taglienti, director de Datos de Insight. “Para entrenar un modelo desde cero se necesita un volumen de datos suficiente para poder ejecutar las tareas LLM que se esperan en función de los datos”.
Luego, una vez que el modelo ha terminado con el entrenamiento base, viene el paso de aprendizaje de refuerzo con retroalimentación humana, RLHF, que es necesario para que el modelo interactúe con los usuarios de manera adecuada.
En la actualidad, casi todos los LLM provienen de grandes hiperescalares o startups centradas en IA como OpenAI y Anthropic. Incluso las empresas con amplia experiencia en la creación de sus propios modelos se abstienen de crear sus propios LLM. Salesloft, por ejemplo, ha estado creando sus propios modelos de IA y ML durante años, incluidos modelos de IA generativa que utilizan tecnologías anteriores, pero duda en crear un modelo de base completamente nuevo y de vanguardia desde cero.
“Es un paso computacional enorme que, al menos en esta etapa, no creo que vayamos a dar”, dice Fields.
Jardines modelo
Para las empresas más maduras, un modelo de IA de una sola generación no es suficiente. Diferentes modelos son buenos para diferentes tipos de casos de uso y tienen diferentes costos y métricas de rendimiento asociadas con ellos. Y constantemente entran nuevos actores en el espacio, superando a los gigantes establecidos. Además, algunos modelos se pueden ejecutar en las instalaciones o en centros de datos de coubicación, lo que puede reducir los costes para las empresas o brindar seguridad o flexibilidad adicionales. Para aprovechar estas opciones, las empresas crean jardines de modelos seleccionados, colecciones privadas de LLM cuidadosamente examinados que incluyen modelos personalizados o modelos ajustados, y utilizan un sistema de enrutamiento para canalizar las solicitudes a las más adecuadas. “No muchas empresas están en ese punto todavía”, dice Thota de Kearney. “Es complicado, pero creo que así será el futuro”.