Embora um dia atrasado, tive a sorte de participar do Meta Connect para uma série de demonstrações e revisões de protótipos ontem. Uma alegria particular foi vivenciar a pesquisa e desenvolvimento do ano passado… após mais um ano de melhorias. Foi um conjunto incrivelmente atraente. E conjunto é a maneira certa de colocar isso. Sentiu-se como o melhor da progressão tecnológica – todos esses diferentes avanços, teses, apostas (e apostas falhadas) amadurecendo juntos, para criar algo novo, grandioso e surpreendente. Tanto funcionou tão bem, tão intuitivamente, e sob testes reais (e não estruturados). Nesse sentido, é inegavelmente claro como a progressão de hardware está ligada às progressões de IA, e como os casos de uso de IA são fundamentais para o motivo pelo qual esses dispositivos são tão atraentes. Um exemplo é a transcrição ao vivo nos novos Meta Ray-Ban Displays: eu estava em um chat em círculo com cinco pessoas, do lado de fora, em uma via densa, com várias pessoas no chat falando ao mesmo tempo. Para quem eu virasse a cabeça, os óculos transcreviam em quase tempo real (e depois traduzia para o francês, mediante escolha), e então mudava conforme eu movia a cabeça. Instantaneamente. Com precisão. Sem qualquer input da minha parte. Não importa se você acha que "óculos de IA" são para você. E claro, eles podem não ser. Mas qualquer um que às vezes viaja ou às vezes escolhe assistir Netflix com legendas mesmo quando não precisa... pode facilmente usar esses recursos e se beneficiar disso. E separadamente, os novos RBMs com displays parecem muito mais próximos do Orion do que eu pensava que seriam. Outra pesquisa e desenvolvimento estava à frente das minhas estimativas externas, também. Mais TK.