Drukuj

gears 1445368 960 720Aby wypracować bezpiecznie działające algorytmy sterujące autonomicznymi pojazdami, trzeba nauczyć maszyny analizowania danych o otoczeniu w sposób przypominający ludzki. Systemy muszą być wyposażone w narzędzia markujące działanie kory wzrokowej, odsiewającej z odbieranych przez człowieka bodźców wzrokowych 70 proc. danych nieistotnych w procesie prowadzenia pojazdu. Inżynier firmy NVIDIA przekonuje, że autonomiczne pojazdy odgadujące myśli pasażera to tylko kwestia czasu.

 

– Na autonomię pojazdów składa się bardzo wiele czynników i bardzo wiele jest tutaj etapów. Musimy zorganizować takiemu pojazdowi percepcję, żeby mógł postrzegać przestrzeń, następnie lokalizację, żeby mógł się zlokalizować, zaplanować swoją ścieżkę, no i ostatecznie zaaplikować kontrolę tak, żeby tę ścieżkę faktycznie wykonać. I każdy z tych etapów to są oddzielne algorytmy z różnych dziedzin. Obecnie najwięcej jest w tym sztucznej inteligencji – mówi agencji informacyjnej Newseria Innowacje Krzysztof Kudryński z NVIDIA.

Rozwiązania z zakresu sztucznej inteligencji są wykorzystywane przede wszystkim na etapie percepcji, czyli rozpoznawania przestrzeni, w jakiej porusza się samochód autonomiczny. Na graficznych procesorach implementowane są konwolucyjne sieci neuronowe. To takie sieci splotowe, w których układ połączeń pomiędzy neuronami odzwierciedla budowę ludzkiego narządu wzroku. Dzięki temu możliwa jest filtracja obrazów, czyli takie ich przekształcenie, które pozwala m.in. na wydobycie z nich użytecznych informacji. Może to być np. wzmocnienie krawędzi.

– Sztuczna inteligencja w autonomicznych pojazdach najczęściej pojawia się na etapie percepcji dlatego, że mamy aktualnie wielką dominację sieci konwolucyjnych, które wspaniale się implementuje na procesorach graficznych i działa to wtedy bardzo szybko. Można to zoptymalizować, można zmniejszyć precyzję tych obliczeń tak, żeby mogły się wykonywać na robotach, w samochodach, bardzo małych urządzeniach – mówi Krzysztof Kudryński.

Prace związane z dopracowywaniem technologii autonomicznych pojazdów w dużej mierze skupiają się na nauczaniu ich postrzegania przestrzeni na wzór ludzki. Start-up AEye opracowuje inteligentny system wykrywania i zmiany odległości (iDAR), który ma za zadanie zastąpić czujniki LiDAR. Jest to system percepcji, który naśladuje ludzki mózg i jego zdolność do inteligentnego postrzegania otoczenia. Firma wykorzystuje sztuczną inteligencję (SI), aby pomóc samochodom autonomicznym myśleć jak robot, ale rozumieć jak człowiek.

Ludzie przetwarzają w korze wzrokowej około 70 proc. danych przestrzennych i środowiskowych, zanim prześlą dane do mózgu. Ludzka kora wzrokowa filtruje w czasie rzeczywistym informacje, których mózg nie potrzebuje, aby człowiek mógł podejmować skutecznie i szybko decyzje w oparciu o tylko niezbędne dane. Funkcję kory w systemie iDAR pełni technologia Agile LiDAR, pozwalająca na przechwytywanie dużych ilości danych graficznych i przestrzennych oraz ich selekcję w czasie rzeczywistym.

– Chcemy, żeby autonomiczny samochód jeździł sam. Musimy go jednak wytrenować, żeby wiedział np. jadąc po drodze i widząc autobus, że zza niego może wyskoczyć dziecko. Dla nas jest to oczywiste, ale samochód musi dostać zbiór treningowy, w którym pojawi się ten autobus i wychodzące z niego dziecko. Nie możemy wszystkich takich przypadków zaplanować, dlatego lepiej jest najpierw nauczyć go zdrowego rozsądku na jakichś innych etapach i to wszystko połączyć w jedną całość – wyjaśnia ekspert.

Przyszłość motoryzacji należeć może jednak nie tylko do zupełnie autonomicznych pojazdów, lecz takich, którymi będzie można sterować za pomocą fal mózgowych. O tym, że taki kierunek rozwoju procesu sterowania jest możliwy świadczyć może chociażby wdrożenie analizy fal mózgowych w metodach terapeutycznych biofeedback EEG. Jest to metoda terapeutyczna, w której podłącza się elektrody w różnych miejscach na skórze czaszki i uszach. Mają one za zadanie rejestrować poszczególne pasma fal mózgowych. Te z kolei informacje zamieniane są na obraz zrozumiały dla pacjenta.

W ramach biofeedback EEG pacjent ma za zadanie sterowanie aktywnością mózgu tak, by osiągnąć efekt np. wywołania przyspieszenia samochodu widzianego na ekranie.

– Jesteśmy coraz bliżej tego, żeby komputer na podstawie naszych fal mózgowych wiedział o naszej intencji. Jest taka szansa, że jeżeli mocno się skoncentrujemy na jakiejś konkretnej myśli, np. wyobrazimy sobie bardzo mocno mapę i miejsce, w które chcemy jechać, to w przyszłości samochód autonomiczny podchwyci to i będzie mógł nas tam zawieźć. Brzmi jak science fiction, ale jest to naprawdę w zasięgu możliwości – przekonuje Krzysztof Kudryński.

Według Allied Market Research, światowy rynek samochodów autonomicznych osiągnie w 2019 r. wartość ponad 54 mld dol. Do 2026 roku zwiększy jednak swoją wartość ponad dziesięciokrotnie – do poziomu ponad 556 mld dol.

Źródło: Newseria