Opracowano pierwsze przenośne urządzenie z interfejsem mózg–komputer. Pomoże m.in. w sterowaniu telewizorem i samochodem. Na rynku są już dostępne interfejsy mózg–komputer, które pozwalają kontrolować roboty przy użyciu samych myśli. Naukowcy opracowali bezprzewodowy i przenośny interfejs tego typu, który wykorzystuje algorytm głębokiego uczenia się do sterowania wózkiem inwalidzkim. Francuski start-up wprowadza zaś na rynek pierwsze urządzenie do noszenia z interfejsem mózg–komputer, które zapewnia kontrolę w czasie rzeczywistym. Może ono zrewolucjonizować branżę rozrywkową, pomóc w obsłudze telewizora czy samochodu. – NextMind to elektronika do noszenia, której głównym zadaniem jest umożliwienie użytkownikowi kontrolowanie danego urządzenia lub komputera za pomocą mózgu – mówi agencji Newseria Innowacje Sune Alstrup ze start-upu NextMind.
– Wcześniej nie mieliśmy dostępu do interfejsu mózg–komputer bez ogromnego zestawu okularów ani kontroli nad urządzeniem w czasie rzeczywistym. To pierwsze takie urządzenie do noszenia z interfejsem tego typu, które zapewnia kontrolę interfejsu w czasie rzeczywistym. NextMind opracował interfejs mózg–komputer (BCI), który tłumaczy sygnały z kory wzrokowej na polecenia cyfrowe. To elektroencefalogram do noszenia – osiem elektrod przyczepionych do tylnej części głowy za pomocą prostego paska na czoło odbiera fale mózgowe z kory wzrokowej. Aby korzystać z urządzenia, użytkownik musi skoncentrować się na określonym obiekcie. Dzięki reakcji w korze wzrokowej generowane są wzorce fal mózgowych do odczytu maszynowego. Taki neurosynchronizm jest następnie wykorzystywany do przełożenia uwagi wzrokowej na polecenia komputera. W przyszłości, jak zapowiadają twórcy, urządzenie ma działać nawet przy zamkniętych oczach. – Interfejs może być wykorzystywany w samochodzie, można także zmieniać kanały telewizyjne lub kontrolować za pomocą mózgu różne opcje w komputerze. Można sobie również wyobrazić grę, i to w dość niedalekiej przyszłości. Zestaw może mieć wbudowany czytnik, co pozwala zagrać w grę w wirtualnej rzeczywistości za pomocą mózgu, bez użycia rąk czy głosu, z wykorzystaniem do tego różnych metod obsługi jednocześnie. Używamy więc razem umysłu, głosu i gestów – tłumaczy Sune Alstrup. Urządzenie umożliwia przełączanie kanałów telewizyjnych za pomocą umysłu, zmianę dźwięku czy wydawanie poleceń podczas gier. NextMind opracował też aplikację dla okularów rzeczywistości rozszerzonej.
Wykorzystuje śledzenie wzroku, gesty i mowę w celu uzupełnienia sygnałów mózgowych. – Będzie ono dostępne już niedługo, bo w drugim kwartale tego roku, za 399 dol. Jeśli ktoś posiada zestaw Oculus, będzie mógł tworzyć własną grę za pośrednictwem umysłu. To bardzo niedaleka przyszłość – przekonuje Sune Alstrup. Interfejsy mózg-komputer pozwalają na coraz więcej. Ctrl-labs, nowojorski start-up, rozwija opaskę na rękę, która tłumaczy sygnały mięśniowo-mózgowe na polecenia interpretowane maszynowo.
We wrześniu 2019 roku firmę przejął Facebook. Zespół naukowców z Carnegie Mellon University, we współpracy z University of Minnesota, korzystając z nieinwazyjnego interfejsu tego typu, opracował pierwsze w historii sterowane umysłem ramię robota. Dotychczas kontrola była możliwa tylko dzięki implantom. W przyszłości interfejs mózg-komputer mógłby zastąpić uwierzytelnianie za pomocą tradycyjnych haseł. – Przez następne lata będziemy obserwować, jak technologia zmienia swoje zastosowania, zaczynając od sterowania telewizorem, a kończąc na byciu nieodłączną częścią naszej interakcji z urządzeniami – ocenia Sune Alstrup. – Sądzimy, że urządzeń z wbudowanym interfejsem będzie coraz więcej. Klienci będą potrzebowali różnych sposobów interakcji z takimi urządzeniami i będzie to możliwe dzięki interfejsowi mózg-komputer.
źródło: @newseria / NextMind