2017/05/18, 08:45
Postado em 19 de maio de 2017 às 16h35m
O Google anunciou a segunda geração de Cloud TPUs para Google Cloud Platform durante a conferência de desenvolvedores Google I/O. Segundo Sundar Pichai, CEO da companhia, a mesma “está repensando novamente sua arquitetura computacional.”
Na I/O do ano passado, a companhia apresentou a primeira geração dos TPUs (tensor processing units), que permitem correr algoritmos de machine learning de uma forma mais rápida e eficiente e, este ano, surge uma nova geração que está optimizada para treinamento e pode processar bastante mais informação. A companhia construiu matrizes destes TPUs que possuem 64 chips e entregam um poder de processamento de 11.5 petaflops.
As novas unidades são muito mais rápidas que qualquer outra unidade de processamento disponível, atualmente no mercado. Pelo menos é o que referem Jeff Dean e Urs Hölzle, dois investigadores da Google na área de AI e Infraestrutura em um post do blog da companhia.
“Um dos nossos novos modelos de tradução de grande escala costumava levar um dia inteiro para treinar 32 dos melhores GPUs disponíveis – agora ele treina com a mesma precisão em uma tarde usando apenas um oitavo de um pod TPU “, escreveram.
“É um avanço importante em nossa infraestrutura técnica para a era da nuvem”, disse Pichai ao revelar os novos chips durante a sua keynote de abertura do evento. “Vamos disponibilizar Cloud TPUs para o Google Compute Engine para que as empresas e programadores possam tirar partido dela”, afirmou o CEO que denota, assim, uma nova tendência na empresa.
É que o Google costuma guardar suas inovações mantendo os avanços tecnológicos para seu próprio uso, o fato de ir disponibilizar a terceiros, é assim uma novidade.
Os novos Cloud TPUs já estão disponíveis para usuários da Google Cloud Platform por meio do Programa Alpha lançado ontem.
As novas unidades são muito mais rápidas que qualquer outra unidade de processamento disponível, atualmente no mercado. Pelo menos é o que referem Jeff Dean e Urs Hölzle, dois investigadores da Google na área de AI e Infraestrutura em um post do blog da companhia.
“Um dos nossos novos modelos de tradução de grande escala costumava levar um dia inteiro para treinar 32 dos melhores GPUs disponíveis – agora ele treina com a mesma precisão em uma tarde usando apenas um oitavo de um pod TPU “, escreveram.
“É um avanço importante em nossa infraestrutura técnica para a era da nuvem”, disse Pichai ao revelar os novos chips durante a sua keynote de abertura do evento. “Vamos disponibilizar Cloud TPUs para o Google Compute Engine para que as empresas e programadores possam tirar partido dela”, afirmou o CEO que denota, assim, uma nova tendência na empresa.
É que o Google costuma guardar suas inovações mantendo os avanços tecnológicos para seu próprio uso, o fato de ir disponibilizar a terceiros, é assim uma novidade.
Os novos Cloud TPUs já estão disponíveis para usuários da Google Cloud Platform por meio do Programa Alpha lançado ontem.
Nenhum comentário:
Postar um comentário