Każdy system plików ma inną metodę na usuwanie pliku. W systemie Windows system plików FAT oznacza pozycje katalogu plików jako „nieużywana” i niszczy informacje o alokacji plików z wyjątkiem początku pliku. W . . . .
Kliknij by przeczytać ~ Najczęstsze Przyczyny Utraty Danych
Jest to koncepcja biologiczna, która pojawiła się w XIX wieku, a później została obalona wraz z rozwojem nauki genetyki. Zgodnie z teorią telegonii niezabezpieczony seks kobiety z każdym partnerem pozostawia w jej ciele ślady męskiego DNA, kt . . . .
Kliknij by przeczytać ~ Co To Jest Telegonia?
Animizm to wiara w duchy, zarówno zmarłych, jak i nieożywionych przedmiotów, takich jak kamienie, rzeki, góry i drzewa. Przekonanie to utrzymuje, że każda osoba ma ducha, który istnieje nawet po tym, jak umrze. . . . .
Kliknij by przeczytać ~ Animizm To Wiara W Duchy
Wśród płatnych programów do odzyskiwanie danych po formacie dysku najdroższe nie są najsilniejsze! Każda z nich ma swoje indywidualne cechy i działa w bardzo specyficzny spos . . . .
Kliknij by przeczytać ~ 4 Złote Zasady Przed Rozpoczęciem Odzyskiwania Danych
Ta mało znana substancja chemiczna mózgu jest powodem, dla którego pamięć traci swoją przewagę I to wszystko zaczęło się od drobnych sytuacji . . . .
Kliknij by przeczytać ~ Dlaczego Zapominamy?
Jakie niesamowite wartości odżywcze posiada oraz jak bardzo konieczna jest dla naszego organizmu możemy przeczytać w artykule Spirulina: Wartości Odżywcze I Korzyści Zdrowotne . . . .
Kliknij by przeczytać ~ Czy Suplementy Ze Spiruliną Są Bezpieczne?
Hiper automatyzacja to zastosowanie zaawansowanych technologii, takich jak sztuczna inteligencja (AI) i uczenie się maszynowe (ML), w celu zautomatyzowania procesów w sposób, który jest znacznie bardziej skuteczny niż tradycyjne możliwości automatyzacji. . . . .
Kliknij by przeczytać ~ Hiper Automatyzacja
Wiele punktów komunikacyjnych w kampusie składa się z osobnych sieci informowania, rzadko odwiedzanego intranetu lub niechlujnych i przepełnionych tablic ogłoszeń. Na przykład wydział prawa na danym uniwersytecie mógł wdrożyć własny system informowania, który . . . .
Kliknij by przeczytać ~ Uczelnie To Wielkie Instytucje
Obecnie w bazie nie ma bloga.
At present there are no blog in the blog database.
Myśl jak robot, postrzegaj jak człowiekPrzez ponad trzy dekady studiowałem i przeprowadzałem operacje na ludzkim mózgu. Zawsze fascynowała mnie moc, plastyczność i zdolność przystosowywania się mózgu, a także to, jak duża część jego niesamowitej zdolności jest przeznaczona do przetwarzania i interpretacji danych, które otrzymujemy z naszych zmysłów. Wraz z szybkim wejściem na rynek sztucznej inteligencji (AI) zacząłem zastanawiać się, w jaki sposób programiści zintegrowaliby złożone, wielowarstwowe ludzkie postrzeganie w celu zwiększenia możliwości AI. Szczególnie interesowało mnie, w jaki sposób ta integracja miałaby zastosowanie do robotów i pojazdów autonomicznych. Dla mnie jasne jest, że sztuczna inteligencja potrzebna do prowadzenia tych pojazdów będzie wymagała sztucznego postrzegania wzorowany na największym silniku percepcji na świecie - ludzkiej korze wzrokowej. Pojazdy te będą musiały myśleć jak robot, ale postrzegać jak człowiek.
Aby dowiedzieć się więcej i lepiej zrozumieć, w jaki sposób powstanie ten poziom sztucznej percepcji, niedawno zostałem doradcą AEye, firmy opracowującej najnowocześniejsze technologie sztucznej percepcji i samodzielnej jazdy, pomagając im wykorzystywać wiedzę o ludzkim mózgu, aby lepiej informować ich systemy. Jest to znane jako biomimikra: koncepcja uczenia się i replikacji naturalnych strategii z żywych systemów i istot (roślin, zwierząt, ludzi itp.) W celu stworzenia bardziej responsywnych i inteligentnych technologii i produktów. Zasadniczo biomimikria pozwala nam dopasować się do naszego istniejącego środowiska i ewoluować w sposób, w jaki życie z powodzeniem funkcjonowało przez miliardy lat. Ale dlaczego włączenie biomimikrii i aspektów ludzkiej percepcji jest integralną częścią rozwoju i sukcesu pojazdów autonomicznych?
Ponieważ nic nie może przyjąć więcej informacji i przetworzyć je szybciej i dokładniej niż ludzka kora wzrokowa. Ludzie klasyfikują złożone obiekty z prędkością do 27 Hz, a mózg przetwarza 580 megapikseli danych w zaledwie 13 milisekund. Jeśli nadal będziemy korzystać z konwencjonalnych metod gromadzenia danych z czujników, będziemy mieli ponad 25 lat, zanim sztuczna inteligencja osiągnie możliwości ludzkiego mózgu w robotach i pojazdach autonomicznych. Dlatego, aby umożliwić samobieżnym samochodom bezpieczne poruszanie się niezależnie w zatłoczonym środowisku miejskim lub przy prędkościach na autostradzie, musimy opracować nowe podejścia i technologie, aby osiągnąć lub przekroczyć wydajność ludzkiego mózgu. Następne pytanie brzmi: jak?
Dane ortogonalne odnoszą się do komplementarnych zestawów danych, które ostatecznie dostarczają nam lepszej jakości informacji o obiekcie lub sytuacji niż każdy z nich osobno. To pozwala nam zidentyfikować, co w naszym świecie jest niezwykle ważne, a co nie. Koncepcje ortogonalności dla wysokiej jakości informacji są dobrze rozumiane i zakorzenione w dyscyplinach, takich jak fizyka kwantowa, w których stosowana jest algebra liniowa, a zbiory baz ortogonalnych są minimalnymi informacjami potrzebnymi do reprezentowania bardziej złożonych stanów bez redundancji. Jeśli chodzi o postrzeganie poruszających się obiektów, często wymagane są dwa typy krytycznych ortogonalnych zbiorów danych: przestrzenny i czasowy. Dane przestrzenne określają, gdzie obiekt istnieje na świecie, a czasowe - tam, gdzie obiekt istnieje w czasie. Integrując te zestawy danych z innymi, takimi jak kolor, temperatura, dźwięk i zapach,
Ludzki mózg w naturalny sposób przyjmuje wszelkiego rodzaju dane ortogonalne, natychmiast oddzielając i ponownie składając informacje, nawet nie zdając sobie z tego sprawy. Na przykład, jeśli zauważysz, że baseball leci w twoją stronę w powietrzu, twój mózg zbiera wszystkie informacje na jego temat, takie jak przestrzenny (kierunek, w którym piłka się kieruje) i czasowy (jak szybko się porusza). Podczas gdy te dane są przetwarzane przez twoją korę wzrokową „w tle”, wszystko, co ostatecznie wiesz, to działanie, które musisz podjąć, którym może być uchylenie się. Technologia postrzegania AI, która jest w stanie z powodzeniem przyjąć sposób, w jaki ludzki mózg przechwytuje i przetwarza tego rodzaju zestawy danych, zdominuje rynek.
Istniejące systemy czujników robotycznych koncentrowały się tylko na modalnościach pojedynczych czujników (kamera, LiDAR lub radar) i tylko ze stałymi wzorcami skanowania i intensywnością. W przeciwieństwie do ludzi, systemy te nie nauczyły się (ani nie mają zdolności) wydajnego przetwarzania i optymalizacji danych 2D i 3D w czasie rzeczywistym, gdy zarówno czujnik, jak i wykryte obiekty są w ruchu. Mówiąc prościej, nie mogą wykorzystywać ortogonalnych danych w czasie rzeczywistym do nauki, ustalania priorytetów i koncentracji. Skuteczne powielanie wielowymiarowej mocy przetwarzania sensorycznego ludzkiej kory wzrokowej będzie wymagało nowego podejścia do myślenia o tym, jak uchwycić i przetworzyć dane sensoryczne.
AEye jest pionierem jednego z takich podejść. AEye nazywa swój unikalny system biomimetyczny iDAR ™ (inteligentne wykrywanie i określanie odległości).iDAR to inteligentny system sztucznej percepcji, który fizycznie łączy unikalny półprzewodnikowy, zwinny LiDAR z kamerą o wysokiej rozdzielczości, aby utworzyć nowy typ danych, który nazywają Dynamic Vixels. Te dynamiczne piksele są jednym ze sposobów, w jaki AEye uzyskuje dane ortogonalne. Przechwytując dane x, y, z, r, g, b (wraz z intensywnością SWIR), te opatentowane dynamiczne piksele są tworzone w celu biomimikacji struktury danych kory wzrokowej człowieka. Podobnie jak ludzka kora wzrokowa, inteligencja związana z Dynamic Vixels jest następnie zintegrowana z centralnym silnikiem percepcji i systemem planowania ruchu (który jest funkcjonalnym mózgiem pojazdu). Są dynamiczne, ponieważ mają zdolność dostosowywania się do zmieniających się warunków, takich jak zwiększanie poziomu mocy czujnika w celu przecinania deszczu lub ponowne odwiedzanie podejrzanych obiektów w tej samej ramie w celu identyfikacji przeszkód.
Ludzie stale analizują swoje środowisko, zawsze skanując w poszukiwaniu nowych obiektów, a następnie równolegle (i odpowiednio) skupiają się na elementach, które są interesujące lub potencjalnie stanowią zagrożenie. Przetwarzamy w korze wzrokowej bardzo szybko, z niewiarygodną dokładnością, zużywając bardzo mało mocy przetwarzania mózgu. Gdyby ludzki mózg działał dzisiaj jak autonomiczne wehikuły, nie przetrwalibyśmy jako gatunek.
W swojej książce The Power of Fifty Bits Bob Nease pisze o dziesięciu milionach bitów informacji, które ludzki mózg przetwarza w każdej sekundzie, ale o tym, jak tylko pięćdziesiąt bitów jest poświęconych świadomej myśli. Wynika to z wielu czynników ewolucyjnych, w tym naszej adaptacji do ignorowania procesów autonomicznych, takich jak bicie naszego serca, lub naszej kory wzrokowej, która odsłania mniej istotne informacje w naszym otoczeniu, niepotrzebne do przeżycia.
Taka jest natura naszej inteligentnej wizji. Podczas gdy nasze oczy zawsze skanują i szukają w celu zidentyfikowania nowych obiektów wchodzących na scenę, skupiamy naszą uwagę na obiektach, które mają znaczenie, gdy poruszają się w obszarach budzących obawy, umożliwiając nam określenie właściwej reakcji. Krótko mówiąc, przeszukujemy scenę, świadomie zdobywamy ważne obiekty i działamy na nie zgodnie z potrzebami.
Jak omówiono, obecne konfiguracje czujników pojazdów autonomicznych wykorzystują kombinację LiDAR, kamer, ultradźwięków i radaru jako „zmysłów”, które zbierają się szeregowo (w jedną stronę) i są ograniczone do ustalonych wzorców wyszukiwania. Te „zmysły” zbierają jak najwięcej danych, które są następnie wyrównywane, przetwarzane i analizowane długo po fakcie. To przetwarzanie końcowe jest powolne i nie pozwala na sytuacyjne zmiany w sposobie rejestrowania danych sensorycznych w czasie rzeczywistym. Ponieważ czujniki te nie przeprowadzają inteligentnego zapytania, do 90% zebranych danych sensorycznych jest wyrzucanych, ponieważ są one nieistotne lub zbędne do czasu ich przetworzenia. Ten akt triage wiąże się również z karą za opóźnienie. Przy prędkościach na autostradzie opóźnienie to powoduje, że samochód porusza się na odległość ponad 20 stóp, zanim dane z czujnika zostaną w pełni przetworzone. Wyrzucanie niepotrzebnych danych w celu zwiększenia wydajności jest nieefektywne. Istnieje lepsze podejście.
Przytłaczające zadanie przeglądania tych danych - każdego drzewa, krawężnika, zaparkowanego pojazdu, drogi i innych obiektów statycznych - wymaga również ogromnej mocy i zasobów przetwarzania danych, co znacznie spowalnia cały system i stwarza ryzyko. Celem tych systemów jest skupienie się na wszystkim, a następnie próba przeanalizowania każdego elementu w ich otoczeniu, kosztem szybkiego działania. Jest to dokładne przeciwieństwo tego, jak ludzie przetwarzają dane przestrzenne i czasowe w sytuacjach, które kojarzą nam się z prowadzeniem pojazdu.
IDAR firmy AEye umożliwia autonomicznym pojazdom „wyszukiwanie, nabywanie i działanie” tak, jak robią to ludzie. Odbywa się to poprzez zdefiniowanie nowych typów danych i czujników, które bardziej efektywnie przekazują przydatne informacje, zachowując inteligencję do analizowania tych danych tak szybko i dokładnie, jak to możliwe. Osiąga to dzięki innowacyjnemu, podstawowemu, zwinnemu półprzewodnikowi LiDAR. W przeciwieństwie do standardowego LiDAR, zwinny LiDAR AEye dostosowuje się sytuacyjnie, dzięki czemu może modyfikować wzorce skanowania i handlować zasobami, takimi jak moc, częstotliwość aktualizacji, rozdzielczość i zasięg. Dzięki temu iDAR może dynamicznie wykorzystywać zasoby czujników do optymalnego przeszukiwania sceny, wydajnej identyfikacji i pozyskiwania krytycznych obiektów, takich jak dziecko idące na ulicę lub samochód wjeżdżający na skrzyżowanie, oraz określający właściwy sposób działania.
Jak wspomniano wcześniej, kora wzrokowa człowieka może skanować przy częstotliwości 27 Hz, podczas gdy czujniki prądu w pojazdach autonomicznych średnio wynoszą około 10 Hz. Mózg naturalnie gromadzi informacje z kory wzrokowej, tworząc pętle sprzężenia zwrotnego, które pomagają zwiększyć wydajność każdego kroku w procesie postrzegania. Mózg zapewnia następnie kontekst, który kieruje oczami do wyszukiwania i skupiania się na określonych obiektach, do identyfikowania ich i ustalania ich priorytetów oraz do decydowania o najbardziej efektywnym sposobie działania, przy jednoczesnym ignorowaniu innych obiektów o mniejszym znaczeniu. Priorytet ten pozwala na większą wydajność i zwiększa próbkowanie czasowe i przestrzenne, nie tylko inteligentniejsze skanowanie, ale lepsze skanowanie.
Spróbuj sam. Rozejrzyj się i zauważ, że istnieje wiele głębi, kolorów, cieni i innych informacji, które można uchwycić oczami - a potem jest ruch. Następnie zastanów się, co wiesz z doświadczenia na temat tego, co widzisz: Czy określony obiekt może się poruszać, czy może pozostać statyczny? Czy może zachowywać się przewidywalnie lub nieregularnie? Czy znajdujesz wartość w obiekcie, czy uważasz, że jest ona jednorazowa? Chociaż nie robisz tego świadomie, twój mózg robi.
Obecne systemy czujników w pojazdach autonomicznych lub półautonomicznych są zoptymalizowane pod kątem „wyszukiwania”, które następnie przekazywane jest do centralnego procesora. Wyszukiwanie odbywa się za pomocą pojedynczych pasywnych czujników, które stosują tę samą moc, intensywność i wzorzec wyszukiwania wszędzie za każdym razem - niezależnie od zmian w otoczeniu. Jeszcze bardziej ograniczające: dane przepływają tylko w jedną stronę - od pasywnych czujników do centralnego procesora - bez możliwości aktywnego dostosowywania lub dostosowywania ich gromadzenia. Cała inteligencja jest dodawana po stopieniu i zdziesiątkowaniu, nawet do 90% wyrzuconych, gdy jest już za późno na naukę i dostosowanie w czasie rzeczywistym.
IDAR firmy AEye to zwinny, wielowymiarowy system, który wykorzystuje pętle sprzężenia zwrotnego do wydajnego i skutecznego cyklu informacji w celu odpowiedniego modyfikowania reakcji w czasie rzeczywistym, tak jak u ludzi. Kamera może komunikować się z LiDAR, a system czujników może rozmawiać jednocześnie z systemem planowania trasy w czasie rzeczywistym.
Oprócz poprawy czasu reakcji pętle sprzężenia zwrotnego umożliwiają skuteczniejszą integrację sztucznej inteligencji ze sztuczną percepcją. Dzisiejsze systemy czujników pasywnie zwracają ten sam typ danych bez względu na sytuację. Przekazywanie danych sensorycznych i ich przetwarzanie do czujnika, a nie do scentralizowanego procesora, umożliwia szybsze zintegrowane pętle sprzężenia zwrotnego w celu informowania i kolejkowania działań. W ten sposób system iDAR może nieustannie się uczyć, dzięki czemu z czasem może stać się jeszcze bardziej skuteczny w identyfikowaniu i śledzeniu obiektów i sytuacji, które mogłyby zagrozić bezpieczeństwu pojazdu autonomicznego, jego pasażerów, innych kierowców i pieszych.
Ekscytujące jest obserwowanie, jak wizjonerzy wzmacniają maszyny, aby lepiej postrzegać środowisko tak, jak robiłby to człowiek: oceniając ryzyko, dokładnie gromadząc informacje oraz reagując i dostosowując się do stale zmieniających się warunków. Tego rodzaju integracja autonomicznego pojazdu i sztucznej inteligencji może prawie wyeliminować nieszczęścia współczesnej kultury samochodowej.
Co to znaczy myśleć jak robot, ale postrzegać jak człowiek? Oznacza to logiczne łagodzenie ludzkich słabości, takich jak agresywne zachowanie, i unikanie ryzyka zmęczenia, rozproszenia uwagi lub alkoholu. Wszystko to przy jednoczesnym dążeniu do spełnienia i przekroczenia możliwości ludzkiej kory wzrokowej i mózgu, najpotężniejszego silnika percepcyjnego, jaki kiedykolwiek stworzono. W ten sposób ostatecznie zaoszczędzimy czas, pieniądze, zredukujemy stres i poprawimy nasze bezpieczeństwo.
W przypadku pojazdów autonomicznych biomimikra informuje nas, że sztuczna percepcja powinna wymagać więcej przetwarzania na czujniku, aby działał efektywnie. W ten sposób system iDAR firmy AEye zmienił sposób tworzenia wizji robotycznej i wyznaczył nowe standardy wydajności. Czujniki iDAR mogą osiągnąć szybkość skanowania przekraczającą 100 Hz (3x widzenie ludzkie) z zasięgiem detekcji zbliżającym się do jednego kilometra (5 x prądowe czujniki LiDAR) - niszcząc rekordy, idąc dalej i szybciej niż jakikolwiek inny system czujników i „prowadząc” obietnicę bezpieczeństwa autonomia pojazdu.