Pressionar tecla, clicar duas vezes, deslizar para a direita? Não, apenas pense.

De digitar a telepatia  

A forma como os seres humanos interagem com os computadores evoluiu constantemente ao longo das décadas e agora está se tornando extraordinária. Na verdade, tudo começou sem nenhum contato entre usuário e computador. Era uma vez, na era da informática, há muito tempo, os cartões perfurados da IBM eram empilhados e entregues por programadores ou usuários a operadores de computador, pessoas especialmente designadas com acesso exclusivo ao mainframe. Então, com a invenção do PC, os usuários passaram a usar teclados, mouses, o ThinkPad TrackPoint, touchpads, canetas digitais e telas sensíveis ao toque. Hoje, as pessoas apenas falam com computadores para que sigam comandos, ou até mesmo usam os olhos e gestos com as mãos para usar fones de ouvido de realidade aumentada (AR) e virtual (VR), como os oferecidos pelo Lenovo ThinkReality.

Qual é o próximo? Algumas pessoas agora estão simplesmente pensando e o computador responde diretamente aos sensores que fazem interface com o cérebro e o corpo do usuário. A Interface Cérebro-Computador (BCI) é uma fronteira tecnológica que vem sendo explorada há décadas pela comunidade científica. A tecnologia é promissora para terapias e remédios para pessoas com uma ampla gama de deficiências físicas, investigadores que tentam compreender melhor a mente e, possivelmente, muitas outras aplicações, incluindo ajudar a melhorar a cognição humana. 

Inovação dedicada à expander a mente 

A Lenovo iniciou recentemente uma colaboração com a OpenBCI, pioneira no campo de BCI vestível. OpenBCI cria ferramentas de código aberto para biossensor e neurociência com o objetivo de reduzir a barreira de entrada para interface cérebro-computador. 

OpenBCI presenting at TED

Photo courtesy of Gilberto Tadday / TEDO projeto mais recente do OpenBCI chama-se Galea; uma plataforma de hardware e software que combina biometria de última geração com realidade mista. Galea é o primeiro dispositivo que integra EEG, EMG, EDA, PPG e rastreamento ocular em um único fone de ouvido. Ao combinar um sistema de sensores multimodais com a imersão em realidade aumentada e virtual, Galea oferece aos pesquisadores, desenvolvedores e criadores uma nova ferramenta poderosa para compreender e aprimorar a mente e o corpo humanos. 

Galea já está produzindo resultados surpreendentes. 

Christian Bayerlein é um tecnólogo alemão e ativista dos direitos das pessoas com deficiência que vive com atrofia muscular espinhal (AME), uma doença genética que afeta os neurônios motores que controlam o movimento muscular voluntário. Durante o TED2023, Christian e o fundador do OpenBCI, Conor Russomanno, demonstraram como a atividade muscular residual do corpo de Christian poderia ser reaproveitada para controlar e pilotar um drone. 

Galeo Varjo XR3 headset
Photo courtesy of OpenBCI

Aprendendo a voar 

O TED Talk e a demonstração fazem parte do projeto maior “NeuroFly” do OpenBCI, que culminará no lançamento de um documentário e um kit de ferramentas de software de código aberto para replicar a demonstração. 

OpenBCI trabalhou com Christian para identificar os quatro grupos musculares que ele poderia ativar de forma mais confiável e colocou eletrodos nesses músculos. O hardware e software do OpenBCI foram usados para traduzir a ativação de cada músculo em controles deslizantes digitais que Christian aprendeu a controlar. O processamento de sinal e a filtragem ajustada ajudaram a eliminar falsos positivos e permitiram que os limites do joystick se adaptassem especificamente a Christian e às variações entre as sessões. Esses controles deslizantes foram então mapeados para um novo joystick digital. Com a prática, Christian aprendeu como usar os novos controles para obter controle total sobre o drone. Ao conectar a câmera do drone a um headset VR, Christian conseguiu voar em primeira pessoa sobre o público do TED.

OpenBCI presenting at TED conference
Photo courtesy of Gilberto Tadday / TED

O processo é como aprender a usar um teclado pela primeira vez; com a prática, o cérebro se adapta e aprende como usar os novos controles sem esforço. Os mesmos sensores e métodos de interação usados pelo NeuroFly poderiam ser aplicados para controlar uma variedade de ferramentas físicas ou digitais. 

A OpenBCI testou muitos pipelines diferentes de aprendizado de máquina e processamento de dados durante o desenvolvimento do NeuroFly e o projeto foi possível em parte por meio de recursos e experiência doados pelas estações de trabalho Lenovo. A demonstração final usou técnicas de processamento de sinal relativamente simples, mas tendo acesso a potência computacional, CPU, memória e GPU de ponta, acelerou enormemente a capacidade do OpenBCI de explorar diferentes caminhos de engenharia e processar a gama de dados gerados pelos numerosos sensores do Galea. As estações de trabalho Lenovo ThinkStation e ThinkPad Série P têm as características únicas de serem capazes de suportar esses fluxos de trabalho intensivos sem suporte da nuvem devido ao seu grande número de núcleos de computação, altas velocidades de clock do processador, enorme capacidade de memória e largura de banda. Ser capaz de executar o poderoso headset Varjo VR e, ao mesmo tempo, transmitir e executar modelos de IA nos dados de Galea foi uma vantagem para o desenvolvimento do NeuroFly. 

Meu cerebro tem um App para isso 

As aplicações da Galea e de outras tecnologias da BCI parecem quase ilimitadas. A lista dos primeiros usuários da Galea inclui empresas de tecnologia de consumo, automotiva, aviação, saúde, neurociência, simulação e treinamento e jogos. O projeto começou originalmente como uma colaboração com a gigante dos jogos Valve. Em geral, a tecnologia BCI tem o potencial de ajudar a restaurar capacidades motoras e de comunicação perdidas, desbloquear a capacidade humana de quantificar estados cognitivos e emocionais e potencializar novas formas de interação humano-computador assistida por IA, adaptadas à mente e ao corpo específicos de um indivíduo. 

“Em última análise, vejo a combinação de neurotecnologia e realidade mista como o futuro dos computadores pessoais”, diz Russomanno. “A computação espacial, a BCI e a IA irão convergir nesta década, resultando muito possivelmente no maior ponto de inflexão tecnológica alguma vez experimentado pela humanidade. Vai ser notável.” 

Dentro de uma década ou mais, os usuários de PC poderão começar a ter experiências de computação muito mais intuitivas. Com base em dados de tecnologias como Galea e outras fontes, bem como em novas aplicações habilitadas para IA, os computadores compreenderão, preverão e responderão às necessidades individuais com base em dados biométricos e outros dados. Por exemplo, se um usuário estiver cansado ou distraído, o feedback de áudio ou vídeo poderá desacelerar ou pausar para ajudar o usuário a permanecer no caminho certo. Ou os designers de jogos e os jogadores podem otimizar as configurações com base nas reações físicas e emocionais do jogador para melhorar a jogabilidade, como tornar os cenários menos ou mais assustadores, emocionantes ou calmantes, dependendo das preferências do usuário. 

Esta convergência de tecnologias mais inteligentes e experiências humanas está a resultar na transformação da visão do filósofo René Descarte “Penso, logo existo” na noção mais prática “Penso, logo faço”.

[ssba]

MWC 2024

Experience breakthrough technology solutions and see how we're transforming, connecting, and empowering the world with AI for all.

Join us Feb. 26-29
Don't Miss StoryHub Updates: