Conecta con Nosotros

Hola, ¿qué estás buscando?

Seguridad

Google presenta ‘cascadas especulativas’ para LLM más rápidos

La nueva tecnología de Google mejora la inferencia de LLM sin sacrificar calidad ni aumentar costos.

Google ha lanzado una innovadora tecnología de ‘cascadas especulativas’ que promete revolucionar la inferencia en modelos de lenguaje grande (LLM) como Gemma y T5. Este avance busca optimizar la eficiencia y reducir costos computacionales, logrando inferencias más rápidas e inteligentes sin comprometer la calidad de las respuestas.

Mejorando la eficiencia de los LLM

Los modelos de lenguaje, que abarcan desde funciones de búsqueda avanzada hasta asistentes de programación, requieren un alto nivel de inferencia, lo que puede resultar lento y costoso, especialmente a medida que más usuarios los implementan. Según Google, es crucial desarrollar LLM “más rápidos y económicos” para satisfacer la creciente demanda.

La tecnología de ‘cascadas especulativas’ combina sistemas de codificación especulativa con cascadas estándar. Esto permite un enfoque en el que modelos más pequeños y rápidos pueden manejar tareas simples, mientras que los modelos más grandes y costosos se reservan para situaciones complejas. De esta manera, se optimiza el uso de recursos, priorizando la reducción de costos computacionales.

Funcionamiento y beneficios de las cascadas especulativas

La decodificación especulativa, por su parte, utiliza un modelo borrador más pequeño para predecir secuencias de “tokens” que luego son verificadas por el modelo objetivo más grande. Si el modelo grande acepta el borrador, puede generar múltiples tokens de manera rápida, acelerando el proceso de respuesta y garantizando resultados de calidad comparable a los que generaría por sí solo.

Este enfoque híbrido de Google ha demostrado ser efectivo en diversas tareas lingüísticas, como resúmenes, traducciones y razonamiento. Como resultado, la compañía asegura haber encontrado un “mejor equilibrio entre costo y calidad”, logrando una mayor aceleración y mejoras en métricas de calidad en comparación con métodos anteriores.

La implementación de cascadas especulativas no solo ofrece una herramienta más potente y flexible para los desarrolladores, sino que también permite un control preciso del equilibrio entre costo y calidad, allanando el camino hacia aplicaciones más inteligentes y veloces. Este avance, sin duda, marcará un hito en la evolución de la inteligencia artificial y su aplicación en el día a día.

Te recomendamos

Seguridad

La nueva tecnología de Google mejora la inferencia de LLM, haciéndola más rápida y económica sin perder calidad.

Seguridad

La nueva tecnología de Google mejora la inferencia de LLM con 'cascadas especulativas' más rápidas y económicas.

Educación

NotebookLM de Google evoluciona y ofrece funciones interactivas para un aprendizaje personalizado y efectivo.

Educación

NotebookLM lanza funciones innovadoras que transforman el aprendizaje en una experiencia personalizada y activa.

Educación

NotebookLM evoluciona con funciones interactivas para un aprendizaje personalizado y efectivo.

Educación

NotebookLM de Google ahora ofrece herramientas interactivas que transforman el aprendizaje en una experiencia personalizada.

Educación

NotebookLM de Google se transforma en un tutor digital interactivo con herramientas innovadoras de IA.

Tecnología

Firefox se alista para lanzar Google Lens y un asistente de IA para mejorar la navegación de los usuarios.

Economía

Invertir en trading sin formación adecuada puede llevar a la pérdida de fondos rápidamente.

Última Hora

Sin embargo, no todo se limita a Gemini 2.

Última Hora

4275 pesos por cada divisa estadounidense.

Tecnología

Revocar permisos a aplicaciones de Android puede transformar tu experiencia digital y proteger tu privacidad.

Publicidad

Copyright © Todos los derechos reservados. Este sitio web ofrece noticias generales y contenido educativo con fines únicamente informativos. Si bien nos esforzamos por brindar información precisa, no garantizamos la integridad ni la fiabilidad de los contenidos presentados. El contenido no debe considerarse asesoramiento profesional de ningún tipo. Se recomienda a los lectores verificar los datos y consultar a expertos adecuados cuando sea necesario. No nos hacemos responsables de ninguna pérdida o inconveniente derivado del uso de la información en este sitio.