LM STUDIO PRIMEROS PASOS

JUE, 27 / JUN / 2024

Las herramientas de inteligencia artificial generativa evolucionan a gran velocidad, y su potencial se basa en los grandes modelos de lenguaje que están detrás de estas aplicaciones.

Los LLM son modelos preentrenados con una técnica llamada aprendizaje automático, en concreto, en un tipo de red neuronal llamado modelo transformer, capaz de analizar miles de millones de textos para aprender patrones de lenguaje, gramática y contexto.

En este Informe USERS aprenderás a dar los primeros pasos con LM Studio.

Autor: Claudio Bottini

Modelos lingüísticos de gran tamaño

ChatGPT y otros modelos de lenguajes grandes no solo han transformado la manera en que vivimos, sino que también han remodelado de un día para el otro el modo de trabajar en muchos ámbitos.

La posibilidad de usar algunos LLM localmente, de forma simple y gratuita, puede ayudar a profesionales, estudiantes y hasta empresas a transformarse gracias al uso de las IA.

Los modelos lingüísticos de gran tamaño (LLM) pueden comprender y generar un texto en lenguaje humano. Se capacitan con enormes conjuntos de datos; de ahí proviene el adjetivo “grande”.

A medida que la automatización se vuelve cada vez más integral para nuestra productividad, adaptarse a nuevas tecnologías es crucial. Muchas veces esta preparación para el cambio requiere tiempo y recursos costosos. Imaginemos convertir modelos sofisticados de IA en algo tan simple como una aplicación en nuestra computadora. Esta idea tiene muchas ventajas:

Si nunca hemos pensado ejecutar un LLM localmente en nuestra computadora, hay algunas razones por las cuales deberíamos considerarlo como una muy buena idea.

  • Sin conexión: no se requiere conexión a Internet, lo cual facilita hacer pruebas con datos propios de gran tamaño y evita latencias de conectividad.
  • Acceso a modelos: ejecutando modelos localmente, es posible probar algunos de ellos que son de código abierto, de los que tanto escuchamos hablar estos últimos meses: Llama 2, Vicuna, Mistral, OpenOrca, Llama Code, phi-3, etc. Además se puede acceder a modelos no tan conocidos comercialmente, personalizados, entrenados a medida de algún tipo de uso, a los que muchas veces no se puede acceder de forma simple a través de APIs oficiales por ser versiones nuevas o en desarrollo.
  • Privacidad: cuando ejecutamos un modelo localmente, no se transfiere ninguna información a la nube. Aunque no exageramos las preocupaciones sobre la privacidad al utilizar modelos basados ​​en la nube, como GPT-4, Bard y Claud 2, ejecutar un modelo localmente evita cualquier problema. Esto es muy importante si decidimos entrenar modelos locales o hacerlos trabajar sobre datos confidenciales, personales o que no pueden ser enviados a Internet sin control.
  • Experimentación: si entendemos el valor de la IA generativa, seguramente vamos a apreciar el potencial de los modelos de código abierto que han sido entrenados utilizando estrategias diferentes, usando variantes en sus algoritmos y, en algunos casos, con la posibilidad de seguir personalizándolos.
  • Costo: los modelos de código abierto son gratuitos y algunos de ellos pueden usarse comercialmente sin limitaciones. Además, son una excelente forma de preparar el código de nuestras aplicaciones, que quizá después usen modelos pagos como ChatGPT, sin gastar en la etapa de desarrollo. Incluso, podemos depurar el código final con modelos locales, y a último momento apuntar nuestro desarrollo a la API de OpenAI, por ejemplo.

Si bien es cierto que GPT-4 generalmente se considera el mejor chatbot de IA generativo, los modelos de código abierto se perfeccionan cada vez y pueden ser adecuados para muchos casos de uso.

En la categoría de código abierto, hay numerosos contendientes interesantes. También hay mucha más especialización, lo que constituye un argumento importante con respecto a que un LLM más pequeño y altamente capacitado en un dominio específico podría resultar más útil en esas áreas específicas. Se ha especulado que GPT-4 no es, en realidad, un gran LLM, sino más bien una unión de muchos LLM más pequeños y especializados que trabajan juntos.

Los LLM altamente capacitados en dominios específicos que trabajan juntos como agentes para brindar la mejor competencia posible en una amplia gama de generalizaciones pueden ser la mejor estrategia. Los LLM específicos y más pequeños son más fáciles de actualizar y mejorar (en comparación con actualizar y mejorar uno único más grande) y se pueden agregar LLM adicionales según sea necesario, siempre que exista coordinación para seleccionar el mejor para responder a consultas particulares de cada tema.

Es por eso que los LLM de código abierto, más pequeños en comparación, tienen altas posibilidades de uso hoy y, ciertamente, mañana.

Salvo que estemos experimentando, jugando o haciendo uso de nuestra curiosidad en el tiempo libre, por lo general, si usamos comercialmente o con un fin laboral alguna de las herramientas generativas de IA, lo haremos siempre orientados a un tipo de tarea y ámbito específico. En ese sentido, contar con un LLM que se haya entrenado en ese rubro sería lo ideal.

El obstáculo para muchos ha sido que la ejecución de un LLM local requiere tener ciertos conocimientos informáticos o sobre un lenguaje de programación determinado, en algunos casos, a un nivel avanzado, ya que por lo general debemos ejecutarlo dentro de un símbolo del sistema o usar una herramienta WebUI un poco más complicada que el simple chat de OpenAi. Para resolver estas dificultades, hoy presentamos LM Estudio.

LM Studio no es un IDE para el desarrollo de LLM, sino una herramienta específicamente pensada como una especie de Sandbox avanzado para trabajar con Inteligencia Artificial Generativa, y que podemos utilizar para probar LLM localmente sin conexión y en forma gratuita.

Sigue leyendo este informe en RedUSERS PREMIUM

También te puede interesar:

CHATBOTS CON IA EN WHATSAPP

En la era digital actual, la interacción conversacional está alcanzando nuevas alturas con la llegada de los chatbots impulsados por inteligencia artificial (IA) en WhatsApp.

Estos chatbots, como Pi, AskRobot, y otros que han pasado por WhatsApp pero han buscado caminos propios, como HeyCamy o LuzIA, están transformando la manera en que nos comunicamos y realizamos tareas en la popular plataforma de mensajería.

¿Qué son exactamente estos chatbots? Son programas inteligentes que se integran con WhatsApp, capaces de comprender y responder mensajes de texto de modo natural y automatizado.

En este Informe USERS exploraremos más a fondo los detalles de los chatbots con IA en WhatsApp, examinando sus características clave, los beneficios que ofrecen y cómo están revolucionando la forma en que nos comunicamos y llevamos adelante tareas en esta plataforma de mensajería instantánea líder.

¡Prepárate para adentrarte en la nueva era de la interacción conversacional con los chatbots en WhatsApp!


Cada mes, lanzamos 2 ebooks USERS, en ellos tratamos en profundidad el tema abordado. En cada ebook, nuestros EXPERTOS vuelcan todos sus conocimientos con el objetivo de brindar una experiencia de capacitación satisfactoria para nuestros lectores.


Lee lo que quieras, donde vayas, por una mínima cuota mensual: SUSCRIBETE!


¡Comparte esta noticia!