Coluna | A visão da “computação ambiental” será alcançada usando inteligência artificial e óculos de realidade aumentada

“O cheiro de café passou pelo nariz de Sal quando ele acordou. Alguns minutos atrás, o despertador perguntou baixinho a Sal, que estava se revirando na cama, ‘Café?’ não.'” Essas foram as únicas palavras. Que o despertador conseguiu entender, e só então a manhã de Sal começou quando o despertador disse ao barista que era hora de se ocupar.

ⓒ Banco de imagens Getty

Este cenário foi descrito em 1991 por Mark Weiser, cientista da computação e diretor de tecnologia do Xerox Palo Alto Research Institute, na Scientific American.Computação ambiental“Isso ficou claro ao escrever um artigo sobre o tema Inteligência Artificial Gerativa e. Óculos de realidade aumentadaGraças à universalidade desta visão, é agora possível concretizar plenamente a visão que existia há 33 anos.

As ideias sobre computação ambiente também são chamadas de “computação ubíqua” e “computação invisível”. A computação ambiental não é tecnologia. É um padrão de uso amplo semelhante à “computação desktop” e à “computação móvel”.

O conceito de computação ambiente existe há décadas e começou a receber mais atenção com o advento da Internet das Coisas há alguns anos. IoT refere-se a dispositivos domésticos e de escritório baseados em sensores de baixo consumo de energia ou a dispositivos IoT dedicados, mas a computação ambiental não é algo que os usuários realmente “usam”, em vez disso, os dispositivos digitais preveem o comportamento preferido das pessoas no ambiente e os utilizam de acordo. Refere-se à interação humana natural e responsiva.

Não temos alarmes dizendo aos nossos baristas para fazerem café, mas existem outros dispositivos de computação ambiental ao nosso redor. Os exemplos incluem termostatos inteligentes que ajustam a temperatura com base na hora do dia, data e se alguém está em casa, ou termostatos que se comunicam com iluminação, sistemas de cortinas e sistemas de segurança residencial.

Salas de reuniões inteligentes com configurações de reunião automatizadas, sistemas de iluminação adaptativos que se ajustam com base na ocupação e na luz ambiente, assistentes ativados por voz com alarmes avançados, manutenção e monitoramento automatizados na fabricação e veículos autônomos guiados que otimizam os pipelines de produção em estágio inicial. sistemas também estão aparecendo em ambientes industriais.

READ  Participe do desconto da marca Logitech S-Rise 'Gmarket Shinsegae Universe Festival' :: Bodnara

Os juros sobem e descem

Nos 30 anos desde o seu surgimento, o interesse pela computação ambiental aumentou e diminuiu à medida que surgiram novas ideias sobre as tecnologias que a suportam.

No entanto, microprocessadores, chips de memória, pequenas câmeras, telas sensíveis ao toque, baterias, sensores (acelerômetro, giroscópio, sensor de proximidade), pequenas antenas, módulos de comunicação sem fio (WiFi, Bluetooth, NFC), microfones e alto-falantes, e IC de gerenciamento de energia, LED e Luzes OLED, módulos GPS, etc. Com a revolução dos smartphones que permitiu a Internet das Coisas, tornando dispositivos baseados em sensores ligados a componentes de baixo custo que são mais rápidos, melhores, mais pequenos e mais baratos, todos começaram a falar sobre computação ambiente.

Desde que a Amazon lançou o Amazon Echo em 2014, e várias empresas como Apple e Google introduziram alto-falantes inteligentes nos anos seguintes, falar com o Assistente sem olhar especificamente para o Assistente ou mesmo saber onde o Assistente está se tornou rotina. Dessa forma, as discussões sobre computação ambiental voltaram a ser ativas.

Algumas empresas exploram o efeito halo da computação ambiente para promover grandes ideias. Por exemplo, Humane, fundada por engenheiros da Apple, lançada em abril passado fixar aiEle foi libertado. AI PIN é uma espécie de óculos inteligentes sem óculos. A Humane comercializa AI Finn como “computação ambiental para o mundo real”. Deixando de lado as questões funcionais, a Humanein decidiu substituir os óculos já usados ​​por 4 mil milhões de pessoas, colocando os dispositivos eletrónicos numa forma que ninguém usa ou quer. Espera-se que este produto desapareça e seja esquecido dentro de um ano.

Quatro anos atrás, no Google I/O, o Google anunciou a integração do Google Nest, o projeto Connected Home over IP (CHIP), melhorias no Google Assistant, modo ambiente para dispositivos Android, uma atualização para o aplicativo Google Home, integração de IA e aprendizado de máquina, Android Automático e Google Home. O tambor da computação ambiente foi batido impiedosamente, com ênfase nos modos de condução e afins.

O Google também mostrou pesquisas sobre displays ocultos, que implementam displays digitais através de madeira ou outros materiais. Foi uma história interessante, mas desde então não ouvimos mais notícias do Google sobre computação ambiental.

READ  Três galáxias formadas no universo primitivo há 13,4 bilhões de anos foram capturadas

Ao mesmo tempo, os carros estão se tornando cada vez mais espaços completos de computação ambiental. Os carros novos apresentam cada vez mais assistentes de voz integrados, como Amazon Alexa ou Google Assistant, para controle mãos-livres, iluminação ambiente inteligente que se adapta a sugestões visuais e estéticas e sensores inteligentes para ativar recursos como controle de cruzeiro adaptativo e assistência à manutenção de faixa. Há muita integração. Estas tecnologias trabalham em conjunto em segundo plano para criar uma experiência de condução coesa e reativa.

Ao longo dos anos, a computação ambiente surgiu e evoluiu lentamente. Agora parece que a nova tecnologia irá despertar um interesse renovado.

Completo com realidade aumentada, inteligência artificial e computação ambiental

Historicamente, a computação ambiental teve como objetivo tornar as interações tecnológicas naturais e discretas. Avançamos nesta direção com a Internet das Coisas e os dispositivos inteligentes, e agora este conceito pode ser plenamente concretizado através da convergência da IA ​​e da AR.

Weiser chamou o impacto da computação ambiental e do que mais tarde chamaríamos de Internet das Coisas de “virtualidade incorporada”. Enquanto a realidade virtual constrói o mundo dentro do computador, o “realismo incorporado” constrói o computador fora do mundo. Trata-se de implementar as características de um ambiente conectado digitalmente na vida real.

Digitalizar e conectar espaços físicos do mundo real para fornecer uma camada digital é o que a realidade aumentada faz. Claro, o melhor vislumbre do futuro da realidade aumentada que vimos até agora é o Apple Vision Pro. Quando você olha para algo e faz gestos sutis, como pressionar ou arrastar os dedos, a informação digital 3D parece flutuar no espaço do mundo real. Um dia pode ser assim que os óculos normais funcionam.

Os óculos de realidade aumentada dirão aos sensores e dispositivos nos nossos espaços de vida e de trabalho quem somos, onde estamos e o que estamos a ver. E a inteligência artificial nos dirá o que queremos. Em outras palavras, os óculos AR equipados com IA complementam a imagem da computação ambiental, permitindo que os humanos participem como “dispositivos eletrônicos” conectados, em vez de humanos biológicos.

READ  "Uma vez a cada 20.000 anos" ... 100% nossa tecnologia para explorar asteróides próximos da Terra

A IA prevê as necessidades do usuário com base nas preferências anteriores e responde às solicitações de voz. Óculos de realidade aumentada baseados em inteligência artificial lembram objetos em nome do usuário. A IA multimodal, que combina entradas como reconhecimento de imagem, texto e voz, desempenhará um papel crucial na computação ambiental, que visa prever e responder às necessidades humanas sem comandos explícitos.

A ideia de computação ambiental mudará a orientação errada de Mark Zuckerberg sobre o “metaverso”, que vê a realidade aumentada e a realidade virtual como dois lados da mesma moeda, e não como opostos (um mundo falso criado por computadores, em vez da realidade transmitida aos computadores). . Gene Munster, sócio-gerente da empresa de consultoria Deepwater Asset Management, disse recentemente que a mudança do Meta de uma “missão fechada do Metaverso” para os óculos Ray-Ban Meta foi um passo em direção à computação ambiente, e eu concordo com isso.

Além disso, a realidade aumentada e a inteligência artificial podem complementar e redefinir a imagem da computação ambiental. Isso já está acontecendo.

Chris Howard, diretor de pesquisa global do Gartner, define edge computing como a computação que ocorre em “espaços ambientais”, onde os espaços físicos e digitais interagem “de maneiras interessantes”. De acordo com Howard, a edge computing, incluindo modelos de linguagem pequena (SLMs) que operam perto da borda, em vez de LLMs que operam na nuvem, será uma tecnologia facilitadora essencial. A edge computing impulsionará o desempenho, a inovação e a eficiência neste novo mundo da computação ambiental.

A computação ambiental oferece uma maneira totalmente nova de compreender a era da inteligência artificial e da realidade aumentada e o que elas significam para a nossa vida diária.

Agora o alarme pedirá que você prepare o café na cafeteira. Enquanto isso, devemos acordar para um novo mundo.
editor@itworld.co.kr

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *