A empresa Ouster anunciou recentemente uma nova geração de sensores LiDAR chamada Rev8 OS, apresentada como o primeiro sistema a capturar cor de forma nativa em cada ponto de uma nuvem 3D; o sistema é descrito como uma visão similar à humana. A tecnologia é voltada para robôs, veículos autônomos e sistemas industriais, que até agora dependiam de imagens em tons de cinza combinadas com câmeras externas para entender o ambiente.Segundo a Ouster, a nova geração de sensores permite que máquinas interpretem o ambiente com mais contexto visual, aproximando a forma como sistemas robóticos percebem o espaço da maneira como humanos combinam forma e cor para reconhecer objetos, sinais e movimentos.Ou seja, o novo conjunto de sensores integra estrutura tridimensional e cor diretamente na captura, eliminando a necessidade de fusão posterior de dados entre câmera e o sensor LiDAR. Isso, de acordo com o lançamento, reduz erros de calibração e latência em aplicações de alta velocidade.A família Rev8 também inclui um modelo principal, o OS1 Max, com maior alcance e resolução em relação à geração anterior, além de ser voltada para usos em larga escala e sistemas de autonomia em ambientes complexos.A tecnologia LiDAR é um tipo de sensor que utiliza feixes de laser para medir distâncias e construir representações tridimensionais do ambiente. Ao calcular o tempo que a luz leva para retornar após atingir objetos, esses sistemas geram mapas de alta precisão usados em robôs, veículos autônomos e aplicações industriais para identificar formas, posições e obstáculos no espaço.Para quem tem pressa:Nova tecnologia atualiza os sensores LiDAR e proporciona uma visão 3D colorida para robôs;A visão dessas máquinas está mais próxima do que os olhos humanos veem;A tecnologia pode ser implementada em larga escala, futuramente, em robôs e carros.Nova geração do Rev8 e a aposta na “visão 3D colorida”O lançamento da linha Rev8 marca uma mudança na forma como sensores LiDAR são projetados, com a proposta de incorporar cor diretamente na medição espacial. Em vez de depender de processamento externo para combinar câmera e profundidade, cada ponto do ambiente já nasce com informação de cor integrada aos dados em 3D.Na prática, isso significa que robôs e veículos autônomos deixam de enxergar o mundo apenas como estruturas geométricas em preto e branco e passam a receber informações completas de cor e profundidade no mesmo fluxo de dados, sem necessidade de combinar sensores diferentes ou etapas adicionais de processamento.A tecnologia é baseada em uma nova arquitetura de chips chamada L4 e L4 Max, que, segundo a empresa, utiliza ciência de cor da Fujifilm e amplia significativamente a capacidade de processamento do sensor. O sistema é descrito como capaz de operar com alta taxa de medição, precisão em nível de pico de segundo e leitura de ambientes sob condições extremas de iluminação.OSDome Ouster: robô com sistema de visão em cúpula – (Divulgação: Oster)A empresa afirma que essa integração permite identificar elementos do ambiente de forma mais intuitiva para sistemas de inteligência artificial, como reconhecer placas de trânsito, luzes de freio e diferentes tipos de superfície com maior precisão contextual.Em tecnologias robóticas, o site NewAtlas revela que a nova integração dá aos robôs uma visão similar à humana devido à presença de cores e realismo capturados pelas câmeras.O modelo OS1 Max é o principal destaque da linha, com arquitetura de 256 canais, alcance de até 200 metros em baixa refletividade e podendo chegar a 500 metros em condições ideais. O campo de visão chega a cerca de 45 graus, com capacidade de operar tanto em ambientes escuros quanto sob luz solar intensa, segundo os dados técnicos divulgados.Leia mais:Coreia do Sul usa trabalhadores de hotel para treinar robôs humanoides com IAAfinal, por que as pessoas compram um robô humanoide?Ela tem emoções, expressões faciais e até temperatura corporal – mas é um robôAlém disso, o sistema promete dobrar o desempenho em relação à geração anterior e oferecer maior densidade de pontos por segundo. A empresa também afirma que o sensor foi desenvolvido para aplicações industriais e automotivas, com foco em confiabilidade e produção em larga escala.O Spot, cão-robô da Boston Dynamics, possui tecnologia LiDAR. Sua visão avançada ocorre devido a uma parceria entre a Boston Dynamics e a Ouster – (Imagem: Boston Dynamics)Com essa abordagem, a Ouster afirma que o objetivo não é apenas melhorar o alcance ou a resolução dos sensores, mas fornecer uma percepção espacial mais rica e contínua, capaz de apoiar o desenvolvimento da chamada ‘Physical AI’, na qual máquinas interagem com o mundo físico de maneira mais próxima da percepção humana.Entre os clientes potenciais e parceiros citados estão empresas como Google, Volvo Autonomous Solutions e outras atuantes em robótica e infraestrutura inteligente. A Ouster também destacou a aquisição da StereoLabs, movimento que reforça a estratégia de integrar percepção por câmera e lidar em uma única plataforma.O post Novo robô “recebe” uma visão similar à humana graças a sensores apareceu primeiro em Olhar Digital.