Pasażerowie uwięzieni w autonomicznej taksówce podczas napadu

Wait 5 sec.

Wyobraźcie sobie taką sytuację: jedziecie autonomiczną taksówką, gdy nagle agresywny przechodzień zastępuje Wam drogę i zaczyna walić w szyby, grożąc śmiercią. Nomalny, białkowy kierowca (czyt. człowiek) wcisnąłby gaz do dechy i odjechał. Ale w autonomiczna taksówka Waymo kierowcy nie ma, a jej algorytm jest w takich sytuacjach bezlitosny: “widzę człowieka blisko maski, nie mogę ruszyć”. Poczytajcie o 6 minutowym horrorze pewnego pasażera uwięzionego w taksówce…To nie był ćpunPowyższa historia dotknęła Douga, 37-letniego pracownika branży tech w San Francisco. Napastnik atakujący jego taksówkę nie był pod wpływem środków odurzających, był po prostu wściekły na “roboty odbierające pracę” i pasażerów, którzy je finansują. Walił więc w szybę przez kilka minut i groził śmiercią. Sytuacja była poważna, ale problem polegał na tym, że systemy bezpieczeństwa autonomicznych pojazdów zostały zaprojektowane tak, aby za wszelką cenę unikać potrącenia pieszego. I tu pojawia się “błąd logiczny” algorytmu — no bo co, jeśli pieszy jest atakującym? No dobra, to może: wskoczyć za kółko, przejąć stery i odjechać? Otóż nie. To niemożliwe. Pasażer nie może przesiąść się na fotel kierowcy i odjechać. Software na to nie pozwala.zadzwonić na support, jakkolwiek komicznie by to nie zabrzmiało? Też niczego nie da. Doug się co prawda dodzwonił, ale Waymo odmówiło zdalnego sterowania autem, dopóki ktoś stał w pobliżu. Rozumiecie, bezpieczeństwo pieszego.Pomocni okazali się przechodnie, którzy choć paradoksalnie mieli dopingować napastnika, to na tyle go rozproszyli, że ten odsunął się wystarczająco daleko od maski taksówki, aby ta mogła ruszyć. To nie pierwszy taki przypadekTo nie jest odosobniony incydent. Jakiś czas temu w Los Angeles grupa rowerzystów otoczyła pojazd, zmuszając go do zatrzymania. W innym przypadku wandalowie bezkarnie pomalowali auto sprayem, wiedząc, że maszyna nie zareaguje agresywnie ani nie spróbuje uciec, ryzykując potrącenie “artysty”.Problem leży w sztywnych regułach decyzyjnych. Dla algorytmu nie ma różnicy między dzieckiem, które wbiegło na pasy, a terrorystą celującym ze strzelby w pasażera. To klasyczny dylemat, który pokazuje, że automatyzacja bez kontekstu sytuacyjnego bywa groźna. Ktoś może zacząć to wykorzystywać. Już teraz niektórzy zastanawiają się, co by było, gdyby jakaś grupa ludzi celowo zatrzymała w ten sposób autonomiczną taksówkę na …przejeździe kolejowym.Może pora na przycisk “mimo wszystko jedź, na moją odpowiedzialność”. Ale pewnie wielu prawników z Doliny Krzemowej się nami nie zgodzi…Nie tylko taksówki mogą Ci zagrażaćUmówmy się. Na razie to nie autonomiczne taksówki są największym zagrożeniem, przynajmniej dla Polaków. Zdecydowanie więcej złego mogą nam wyrządzić (i wyrządzają każdego dnia) cyberprzestępcy. Dlatego warto poświęcić chwilę i uporządkować wreszcie swoje cyfrowe życie — włączyć co trzeba na komputerze i skonfigurować co trzeba na smartfonie. Jak to zrobić? To pokazujemy na wykładzie “Jak nie dać się zhackować?” który już w kwietniu odbędzie się w Warszawie i Krakowie:Krakowie, 9 kwietnia — zapisz się tutaj!Warszawie, 16 kwietnia — zapisz się tutaj!Wrocławiu, 11 czerwca — zapisz się tutaj!To jest wykład dla każdego — jest prowadzony przystępnym i zrozumiałym dla osób nietechnicznych językiem. Weźcie rodziców albo dziadków. W 3 godziny pokażemy wszystko, co dziś każdy musi wiedzieć, aby nie dać się zhackować i ochronić swoje dane, pieniądze oraz prywatność przed internetowymi zagrożeniami. Realizujemy go od ponad 5 lat, przeszkoliliśmy setki tysięcy Polaków a średnia ocena z ankiet to 9,48/10. Nie zwlekaj, wybierz pasujący Ci termin i zapisz się już teraz!