Especial Google I/O 2023
Con tanto foco en la IA que debo hacer una newsletter especial de seguimiento del evento. Al final de la news para mi el adelanto más jugoso.
Llegó el evento tecnológico más esperado de la semana y no ha decepcionado. Nunca una Google I/O había tenido tanta expectativa.
Esta newsletter será quizás algo más espesa que de costumbre, mañana volvemos al formato habitual.
Al fin los de Mountain View han entrado de lleno en la batalla (casi obligados) por el liderazgo de la IA, cabe decir que, sin innovar demasiado y siguiendo la estela de OpenAI.
El evento ha estado muy centrado en toda la aplicación de la inteligencia artificial en diferentes ámbitos, aunque ha habido tiempo para la presentación de tecnología más tradicional.
Han tratado de todas las maneras en enfocar su tecnología desde el uso responsable y desde el respeto a la privacidad, claramente como una “excusa” para ser más lentos y sobre todo para “golpear” a OpenAI donde más les duele.
El I/O 2023Ha empezado algo flojete, con una IA en Gmail para ayudar en la redacción, una evolución de Maps chula pero esperable y un editor de fotos dopado con inteligencia artificial. Sin más. Nada que no hubiésemos visto en otros sitios.
Por suerte la cosa se ha empezado a poner interesante y ha continuado con la presentación de PaLM 2, el evolutivo de Palm, que presentó el año pasado.
Aquí la cosa se ha puesto interesante porque nadie se lo esperaba.
Además, dos cosas curiosas.
Palm 2 tiene distintos tamaños y el más pequeño (Gecko) puede trabajar en un dispositivo móvil sin necesidad de estar conectados a Internet.
Es un modelo de lenguaje mucho más eficiente, si PaLM estaba entrenado con 540 mil millones de parámetros, PaLM 2 tan solo ha sido entrenado con 14 mil millones.
Palm 2 será el modelo que utilice Bard para cometir con el actual modelo de Open AI.
Google ha prometido que Palm 2 ha sido entrenado con documentos científicos y expresiones matemáticas por lo que tiene buena pinta.
Han mostrado la evolución de Bard con Palm 2, que al fin competirá (al menos en teoría) con Chat GPT 4.
Bard ahora es (o al menos parece) mucho más potente, con capacidad de programar y conocimiento de muchos idiomas, y también multimodal, por supuesto. Esto último no lo será hasta dentro de unos meses.
Bard también se utilizará en todo el entorno de Google y en toda la parte de Workspace, sin mucho detalle sobre como serán las conexiones, si simplemente se traspasará información o se podrá hacer algo más.
No me esperaba tampoco la integración de Adobe Firefly con Bard, con el único sentido de aprovechar el entrenamiento ético de Firefly. Si un día la justicia dictamina que Midjourney o Dall-E 2 se han entrenado de forma ilícita, Google se salva de la quema.
También me ha sorprendido que liberarán Bard en 180 países pero en inglés y que irán añadiendo idiomas paulatinamente. Al ser un lenguaje pre-entrenado lo suyo es entrenarlo con documentos en diferentes idiomas, como ChatGPT, pero habrá algún motivo obviamente.
En lo referente a Bard en el buscador prácticamente han calcado lo que ha hecho Microsoft BING con Open AI, con una parte de chat integrada en la búsqueda.
Si funciona… ¿Para qué tratar de innovar?
Ahora mismo se encuentra en la parte de Labs pero veremos cambios sustanciales en el buscador tras MUCHOS años manteniéndose igual.
Vienen cambios en la información de Shopping y en toda la experiencia de búsqueda y compra de los usuarios.
Cualquiera que lea esto y se dedique al marketing: stay tuned, vienen cambios.
¡Ah! Y que no se me olvide, también han trabajado en un etiquetado de información de las imágenes para poder discernir entre las que están generadas por IA y las que no. Tengo curiosidad por ver cómo acaba funcionando esto.
Después de esto ya han presentado la API de PaLM, novedades de Google Cloud, imagen, codificación (como Copilot) y speech-to-text en 200 idiomas (como Whisper). Además se le añade una capa de aprendizaje y fine-tuning del modelo.
Un prototipo llamado Project Tailwind que genera modelos de IA a partir de documentos de Google Drive, enfocado en estudiantes para generar resúmenes y glosarios.
Entre medias de todo esto, y dejándolo para el final de la newsletter, el otro golpe de efecto ha sido el anuncio de GEMINI.
Un modelo multimodal que competirá con el modelo que aún está entrenando Open AI, que tendrá además uso de APIs y herramientas externas (tools), memoria y capacidad de planificación.
¿Veremos la liberación del multimodal en OpenAI estas próximas semanas?
Apuesto a que sí.
El resto de la keynote ha servido para ya irnos hacia una parte mucho más técnica y enfocada puramente a desarrolladores y a la presentación de novedades de Android, el dispositivo plegable Pixel Fold, la Pixel Tablet o el Pixel 7a. Aquí podéis ver un resumen de todo lo presentado.
Sin más, espero que os haya servido esta puesta al día del evento de Google y mañana volvemos con más IA.
PD: Un par de enlaces que debéis explorar:
¿Quieres recibir esta news todas las mañanas en tu buzón?
Si crees que a alguien le puede interesar, reenvíale este email.