Gemini es uno de los últimos lanzamientos de Google y se tata de el modelo de inteligencia artificial (IA) que considera "más potente y general hasta la fecha", que ha sido diseñado para ser multimodal y flexible.
Esto significa que puede comprender, operar y combinar distintos tipos de información, desde texto y código hasta audio, imagen y vídeo, y se puede ejecutar de manera eficiente tanto en centros de datos como en dispositivos móviles.
Gemini se ha presentado en tres niveles de uso (Ultra, Pro y Nano). Gemini Pro, que desde la semana pasada puede probarse en Bard, para ofrecer una versión mejorada de este 'chatbot' con un razonamiento, planificación y comprensión más avanzados, llega ahora a los desarrolladores y organizaciones a través de su integración en Google AI Studio y Google Cloud Vertex AI.
En Google AI Studio, las capacidades de Gemini permitirán tanto a estudios de desarrollo como a desarrolladores individuales crear aplicaciones con una herramienta web fácil de usar y que ayuda a optimizar el flujo de trabajo.
Las organizaciones encontrarán Gemini en Google Cloud Vertex AI, donde podrán utilizar las capacidades de este modelo para crear agentes e integrar la inteligencia artificial en sus aplicaciones. También podrán acceder en esta plataforma a más de 130 modelos de
código abierto tanto de Google como de terceros.
Vertex AI ofrece soporte integral para Gemini a través de nuevas herramientas que permiten la personalización de los agentes con los datos propios o incorporar el aprendizaje por refuerzo con 'feedback' humano y la destilación.
También se incluyen herramientas de aumento para que los agentes puedan incorporar, recuperar, comprender e interaccionar con la información del mundo real mediante bloques configurables de gneración aumentada de recuperación y extensiones. Así como herramientas de verificación de la calidad de la información y controles de seguridad. La integración de Gemini en Vertex AI está disponible desde este miércoles en versión preliminar. Más adelante, a principios de 2024, Google tiene previsto extender Gemini a
Vertex AI Search y Conversation, dos herramientas que ayudan a crear agentes avanzados de búsqueda y conversación con un enfoque de poco código de programación.
La actualización con Gemini permitirá obtener respuestas y resúmenes en Vertex AI Search, así como usar datos multimodales y múltiples fuentes de datos para las búsquedas. En el caso de Conversations, Gemini facilitará las conversaciones multicanal y
multimodal.
Gemini también estará disponible próximamente en toda la cartera de Duet AI, el colaborador asistido por IA que asiste a los usuarios cuando trabajan en Google Workspace y Google Cloud. Este miércoles, en cambio, la compañía ha facilitado Duet AI for Developers
y Duet AI in Chronicle Segurity Operations de forma generalizada.
La primera ayuda a los usuarios a programar de forma más rápida gracias a funciones como la de completar el código con ayuda de la IA, así como generar código de programación y el chat en varios entornos de desarrollo integrado (IDE).
Con esta herramienta, por tanto, se agilizan las tareas y los procesos repetitivos de los desarrolladores con atajos para tareas comunes, como la generación de pruebas unitarias y la explicación del código. Además, agiliza el aprendizaje basado en competencias al ofrecer
a los usuarios la posibilidad de formular preguntas mediante un chat en lenguaje natural.
Duet AI in Chronicle, por su parte, se presenta como una plataforma unificada de operaciones de seguridad de Google Cloud, que ayuda a los expertos en amenazas a proteger de forma más eficaz sus empresas frente a los ciberataques.
De esta manera, con Duet AI in Chronicle, los usuarios pueden realizar búsquedas en grandes volúmenes de datos en cuestión de segundos mediante consultas generadas a partir de lenguaje natural,a sí como reducir revisiones manualesy mejorar el tiempo de respuesta con las recomendaciones sobre los pasos a seguir para dar respuesta a los incidentes.
Google ha recordado que dispone de toda la pila tecnológica de Duet AI, desde la infraestructura y los modelos básicos hasta la integración de alto nivel y la experiencia de usuario, y ha adelantado que tiene previsto ampliar esta herramienta a BigQuery, Looker y
Apigee, entre otros.
En esta tanda de presentaciones, la firma también ha indicado que ha reforzado sus infraestructuras con este nuevo producto, como es el caso de las TPU, que durante mucho tiempo han sido la base para entrenar y alimentar productos asistidos por IA, como YouTube, Gmail, Google Maps o Google Play.
Con ello, se ha referido a Cloud TPU v5p, anunciado hace unos días. Se trata de un acelerador de IA flexible que es cuatro veces más escalable que TPU v4 en términos de FLOP disponibles en total por pod.
Asimismo, ha recordado que a principios de este año se habilitó Cloud TPU v5e, la que ofrece "la mayor eficacia de costes hasta la fecha", así como una mejora de 2,7x en su rendimiento de inferencia por dólar con respecto a la TPU v4 de la generación anterior.
AI Hypercomputer, por su parte, se ha presentado como una revolucionaria arquitectura de superordenador, que utiliza un ssitema integrado de 'hardware' de rendimiento optimizado, así como 'software' abierto, y modelos de consumo flexibles.
Concretamente, esta creación cuenta con una amplia gama de opciones de aceleradores, entre las que se incluyen varias clases de TPU de 5ª generación y GPU de Nvidia.
Para terminar, la firma ha presentado una versión mejorada de su modelo Imagen 2, una tecnología de generación de imágenes a partir de texto que se ha mejorado con funciones de fotorrealismo, renderizado de texto y generación de logotipos.
Con este lanzamiento, también se ha anunciado la disponibilidad genera de MedLM, un paquete de modelos e interfaces de programación de aplicaciones (API) adaptados a aplicaciones médicas. Este último, por cierto, estará disponible en Vertex AI