O Google anunciou a introdução do Gemini 1.5, a mais nova versão do seu modelo de inteligência artificial (IA) generativa, marcando um avanço significativo na capacidade de processamento e eficiência.
A atualização promete transformar a interação dos usuários com a tecnologia, oferecendo respostas mais rápidas e precisas a uma gama ainda maior de consultas.
Desenvolvido a partir da arquitetura inovadora Mixture of Experts (MoE), o Gemini 1.5 se destaca por sua habilidade de processar apenas partes específicas do modelo durante uma consulta, em vez de acionar toda a rede. Essa otimização resulta em uma performance mais veloz e eficiente, capaz de lidar com quantidades massivas de dados simultaneamente.
O modelo agora pode processar até 1 milhão de tokens simultaneamente, um salto considerável em relação aos 32 mil tokens do Gemini 1.0 Pro e os 132 mil tokens do GPT-4 da OpenAI. O Google também tem planos de expandir essa capacidade para 10 milhões de tokens, um marco já alcançado em testes preliminares.
Com a nova janela de contexto, o Gemini 1.5 pode analisar uma quantidade de informações equivalente a 1 hora de vídeo, 11 horas de áudio, 30 mil linhas de código ou mais de 700 mil palavras de uma só vez. Em demonstrações, o modelo analisou com sucesso as transcrições completas da missão Apollo 11 em segundos, evidenciando sua capacidade de compreensão e análise profunda.
Melhorias no Desempenho e Segurança
Além de superar a geração anterior em 87% nos testes de benchmark, o Gemini 1.5 também passou por extensos testes de ética e segurança. Esses testes visam assegurar que o modelo esteja preparado para um lançamento mais amplo, garantindo sua segurança e confiabilidade.
Inicialmente disponível para desenvolvedores e usuários corporativos, o Gemini 1.5 será gradualmente integrado ao chatbot de mesmo nome, embora uma data específica para essa expansão ainda não tenha sido anunciada. A Samsung é uma das primeiras a testar o modelo, explorando suas potencialidades para aprimorar a série Galaxy S24.