En su evento Google I/O la empresa de Mountain View ha anunciado una serie de avances importantes en lo que respecta a inteligencia artificial y el aprendizaje automático, lo que destaca su objetivo de mejorar la experiencia del usuario en una variedad de plataformas y aplicaciones.
Uno de los anuncios más significativos fue la introducción de PaLM 2, la próxima generación de su modelo de lenguaje. Este modelo es más rápido y eficiente que sus predecesores, y ofrece una variedad de tamaños, lo que facilita su implementación para una amplia gama de casos de uso. Ya se ha convertido en el motor de más de 25 productos anunciados en la conferencia Google I/O y se utiliza en docenas de equipos de productos en todo Google. Además, PaLM 2 también potencia la nueva API de PaLM.
Google ha encontrado aplicaciones para PaLM 2 en sectores más allá de la tecnología de consumo. El equipo de investigación en salud de la compañía ha utilizado PaLM 2 para crear Med-PaLM 2, un modelo sintonizado con conocimientos médicos para ayudar a responder preguntas y resumir información de una variedad de textos médicos densos. Actualmente, están explorando capacidades multimodales para que pueda sintetizar información del paciente a partir de imágenes, como una radiografía de tórax o una mamografía, lo que podría mejorar significativamente la atención al paciente.
Google también anunció que Med-PaLM 2 se abrirá a un pequeño grupo de clientes de Cloud durante el verano para recopilar comentarios y identificar casos de uso seguros y útiles.
Mientras tanto, Google está trabajando en Gemini, su primer modelo creado desde cero para ser multimodal, altamente capaz en diferentes tamaños y eficiente en la integración con otras herramientas y API. Aunque Gemini todavía está en entrenamiento, ya está mostrando capacidades multimodales nunca antes vistas en modelos anteriores.
Google además ha anunciado una serie de mejoras en su chat de inteligencia artificial Bard, un experimento que permite a los usuarios colaborar con la inteligencia artificial generativa. Por ejemplo, pronto será posible usar imágenes en los prompts de Bard, lo que permitirá a los usuarios aumentar su creatividad de formas completamente nuevas. Google está expandiendo el acceso a Bard en inglés a más de 180 países y a partir de hoy, los usuarios también podrán utilizar Bard en japonés y coreano. Google tiene como objetivo hacer que Bard esté disponible en los 40 idiomas más hablados para finales de año, lo que permitirá a más personas colaborar con la IA en sus idiomas nativos. Para aumentar aún más el acceso, Google ha eliminado la lista de espera para poder usar Bard.
Las mejoras en Bard también incluyen la precisión de las citas de código. A partir de la próxima semana, si Bard ofrece un bloque de código, los usuarios podrán hacer clic en la anotación y Bard subrayará el bloque y lo vinculará a la fuente. En un futuro próximo, Google prometió que Bard se volverá más visual al incluir imágenes en sus respuestas, proporcionando a los usuarios una idea mucho más clara de lo que están explorando.
Por último, Google está planeando integrar Bard no solo con los servicios de Google, sino también con las aplicaciones populares que los usuarios utilizan a diario, como Adobe, Instacart y Khan Academy.
La carrera por dominar el mercado de la Inteligencia Artificial, especialmente en IA generativa, se está poniendo cada vez más competitiva. En los próximos meses veremos más avances y no solo en lo que respecta a Google y Microsoft.