Nuevas investigaciones cuestionan el futuro de esta reciente especialidad en IA, sugiriendo que los LLMs podrían ser sus propios ingenieros de prompts, sin necesidad de intervención humana. Dudas sobre la forma y sostenibilidad de un trabajo que podría ser una solo una necesidad pasajera.
La ingeniería de prompts de modelos de lenguaje se ha convertido en una de las habilidades más codiciadas desde el lanzamiento de ChatGPT el año pasado, con algunas empresas dispuestas a pagar miles y miles dólares en salarios para este rol. Sin embargo, un estudio reciente introduce una nueva complicación: ¿y si la IA es en realidad su propia mejor maestra?
Rick Battle y Teja Gollapudi, de la empresa VMware, se encontraron desconcertados por la inconsistencia del rendimiento de los LLMs en respuesta a diferentes técnicas de ingeniería de prompts. Por ejemplo, los investigadores intentaron determinar los mejores prompts para resolver diferentes ecuaciones matemáticas en tres plataformas de código abierto. Pero, sin importar qué preguntaran, el prompt ideal cambiaba completamente dependiendo de cada escenario único.
Lo que funcionó mejor, descubrieron, fue simplemente permitir que cada modelo creara sus propios parámetros y luego permitir que la plataforma probara cada uno de esos prompts en sí misma. Herramientas recientes han automatizado este proceso, permitiendo que el modelo encuentre la frase óptima para alimentarse a sí mismo, dadas algunas ejemplos y una métrica de éxito cuantitativa.
Rick Battle argumenta que la optimización algorítmica de los prompts tiene sentido dado que los modelos de lenguaje son, en esencia, modelos matemáticos y no entidades que comprendan el lenguaje humano. "Muchas personas antropomorfizan estas cosas porque 'hablan inglés'. No, no lo hacen", dijo Battle a IEEE Spectrum. “No habla inglés. Hace muchos cálculos”. Battle señaló, incluso, que ningún ser humano debería volver a optimizar manualmente las indicaciones.
Además de los modelos de lenguaje, los algoritmos de generación de imágenes también pueden beneficiarse de prompts generados automáticamente.
Recientemente, un equipo de los laboratorios Intel liderado por Vasudev Lal desarrolló NeuroPrompts, una herramienta que mejora las imágenes a partir de prompts simples utilizando modelos de lenguaje para transformarlos en prompts más efectivos.
Aún queda mucho por aprender sobre cómo escribir mejores prompts. Muchos estudios muestran cómo ciertas técnicas de prompting dan mejores resultados que otras. OpenAI incluso tiene una guía oficial de ingeniería de prompts.
Aunque la ingeniería de prompts puede evolucionar hacia la automatización, es probable que los trabajos en este campo no desaparezcan por completo. La adaptación de la IA generativa a las necesidades de la industria seguirá requiriendo intervención humana en el ciclo de vida del producto. Es por eso que muchas empresas están adoptando el título de Operaciones de Modelos de Lenguaje Grande (LLMOps), que abarca la ingeniería de prompts junto con otras tareas necesarias para implementar productos basados en IA. Los ingenieros de operaciones de aprendizaje automático (MLOps) están bien posicionados para asumir estos roles en la nueva era de la ingeniería de prompts.
Kommentare