Sign In
♾️

Crear un servicio con un modelo de lenguaje

El prompt desempeña un papel clave a la hora de simplificar la interacción con modelos como GPT-3.5 y GPT-4. Creo que, a medida que la inteligencia artificial siga evolucionando, facilitará la comunicación con los modelos fundacionales y hará posible usarlos de forma fácil y eficiente en diversas aplicaciones.
A medida que la inteligencia artificial se vuelve más común, me recuerda cuando los planificadores estudiaban conceptos como API y SDK. No es estrictamente necesario saberlo, pero es útil conocerlo. De hecho, creo que lo importante para quienes están creando o van a crear servicios relacionados con la IA es comprender la estructura. Lo más sencillo sería que OpenAI proporcionara una API, tú la recibes y simplemente obtienes la entrada y la salida... Pero normalmente, los responsables o los servicios no lo prefieren, ya que buscan una mejor experiencia o una ventaja en costos. A menos que sólo se busque liderar el mercado rápidamente. Un buen ejemplo es el negocio nacional de almacenamiento en la nube: en realidad, si construyes tu propio IDC o centro de datos, el coste operativo se reduce en más del 50%, pero tampoco es fácil construirlo ni diseñarlo correctamente.
Personalmente, si alguien está pensando en planear o soñar con un servicio relacionado con la inteligencia artificial, sin importar su puesto, le recomendaría leer la información anterior. En realidad, basta con comprender bien tres conceptos clave: Foundation Model, Embedding Model y VectorDB.
Arquitecturas emergentes para aplicaciones de LLM de Matt Bornstein y Rajko Radovanovic
El modelo Foundation es como el bibliotecario de esta biblioteca. Sabe mucho sobre los libros (información) y puede ayudarte a encontrar el libro que buscas. Si le preguntas "Háblame sobre computadoras", te recomendará libros sobre computadoras.
El modelo de embedding consiste en convertir cada libro en un código que permita encontrarlo fácilmente. Es como poner un código de barras único en cada libro; de este modo, puedes encontrar rápidamente el libro que buscas.
Podemos decir que VectorDB es una gran estantería donde los libros se organizan usando los códigos de barras. Estas estanterías almacenan los libros por temática o según tus preferencias. Así, si dices «Quiero ver libros sobre este tema», puede proporcionarte rápidamente los títulos relacionados.
Al desarrollar servicios de inteligencia artificial, te das cuenta de que las preguntas que la gente hace a la IA pueden clasificarse más de lo que imaginas y existen áreas sobre las que se consulta con mucha frecuencia. Si entiendes esto, podrás diseñar bien VectorDB y los modelos de embedding para reducir notablemente los costos.
🎁
👁️‍🗨️
ⓒ 2023. Haebom, todos los derechos reservados.
Se debe indicar la fuente y se puede utilizar con fines comerciales con el permiso del titular de los derechos de autor.
👍
You do not have permission to write comments