Cała treść

Symulacja ruchu pojazdów w skali dużego miasta i jej zastosowania w pozyskiwaniu wiedzy na temat ruchu drogowego poprzez dialog z ekspertami

symulacja ruchuW poniższym artykule przedstawiono wyniki badań na temat ruchu pojazdów w dużym mieście przeprowadzone przy użyciu programu Traffic Simulation Framework (TSF), który opracował Paweł Gora. TSF implementuje realistyczny model ruchu, oparty na probabilistycznych automatach komórkowych, inspirowany modelem Nagela-Schreckenberga. Program wykorzystuje dane dotyczące rzeczywistego ruchu w Warszawie i mapy z serwisu OpenStreetMap. TSF był już stosowany jako źródło danych w konkursie http://tunedit.org/challenge/IEEE-ICDM-2010, w którym powstało wiele efektywnych algorytmów predykcji ruchu pojazdów w nietypowych sytuacjach (np. zamknięcie odcinka drogi). Opracowane metody umożliwiały m.in. predykcję natężeń ruchu i średnich prędkości na wybranych odcinkach drogi w oparciu o dane historyczne i aktualny ruch. Rozwiązania wykorzystywały zaawansowane techniki eksploracji danych i uczenia maszynowego, m.in. lasy losowe. Obecnie TSF służy do projektowania algorytmów ewolucyjnych (m.in. algorytmów genetycznych) do optymalizacji ruchu poprzez sterowanie sygnalizacją świetlną, metody te przynoszą obiecujące wyniki. Używany jest też do pozyskiwania wiedzy dziedzinowej dotyczącej ruchu pojazdów, która posłuży do konstrukcji hierarchii klasyfikatorów aproksymujących złożone, nieostre pojęcia (np. “duże natężenie ruchu”, “korek”) z danych niskopoziomowych, celem automatycznej detekcji i predykcji stanów ruchu, zapobiegania niepożądanym sytuacjom lub optymalizacji pewnych parametrów ruchu (np. poprzez rerouting, adaptację konfiguracji świateł). We wspomnianych badaniach najpierw zebraliśmy w zewnętrznych plikach dane sensoryczne (położenia i prędkości pojazdów) z 51 symulacji komputerowych przy pomocy programu TSF. Każda symulacja trwała 10 minut, symulowane były różne sytuacje w ruchu drogowym,a dane zbieraliśmy z obszaru w pobliżu skrzyżowaniu ulic “Banacha”, “Grójecka” i “Bitwy Warszawskiej 1920 roku” w Warszawie. Następnie podzieliliśmy każdą sytuację na 5 części, otrzymując 255 dwuminutowych testów, które zaprezentowaliśmy 75 ekspertom przy pomocy programu TSF. 1 sytuacja (5 testów) była oceniana przez wszystkich 75 ekspertów (dane te posłużą do normalizacji zarówno ekspertów, jak i sytuacji, oraz do zbadania wiarygodności ekspertów). Każdy z pozostałych testów był oceniany przez 3 ekspertów. Każdy ekspert oceniał 15 różnych testów, a 6 z nich dwukrotnie (czego eksperci nie wiedzieli) celem weryfikacji spójności i rzetelności ekspertów. Każdy ekspert miał więc do oceny 21 dwuminutowych testów prezentowanych w losowej kolejności. Zadaniem ekspertów była obserwacja symulacji odpowiadającej danemu testowi w programie TSF i udzielenie odpowiedzi na pytanie: “Jakie było natężenie ruchu?”. Eksperci wybierali najwłaściwszą (ich zdaniem) odpowiedź z danego zbioru (np. “korek”, “małe”), uzasadniając następnie swój wybór w języku naturalnym. Otrzymane informacje przeanalizowaliśmy otrzymując ciekawe wyniki, m.in. udało nam się stworzyć zbiór treningowy z przypisanymi decyzjami dotyczącymi poziomu natężenia ruchu dla wszystkich 255 dwuminutowych sytuacji oraz wydobyć cechy, którymi posługiwali się eksperci do uzasadnienia swoich decyzji. Otrzymana wiedza może posłużyć do konstrukcji hierarchii klasyfikatorów aproksymujących z danych sensorycznych wysokopoziomowe, nieostre, czasowo-przestrzenne pojęcia dotyczące ruchu pojazdów na skrzyżowaniu, np. duże natężenie ruchu lub formowanie się korka na skrzyżowaniu. Takie algorytmy mogą mieć zastosowanie w automatycznym wykrywaniu z danych sensorycznych czasowo-przestrzennych pojęć dotyczących ruchu drogowego celem aktywacji złożonych akcji (np. rekonfiguracja świateł na skrzyżowaniach) zapobiegających powstawaniu niepożądanych sytuacji w ruchu drogowym oraz optymalizacji pewnych jego parametrów. Jest to zgodne z rozwijanym przez nas paradygmatem obliczeniowym Perception Based Computing.  Opracowywane przez nas metody mogą mieć zastosowanie w nowej generacji zaawansowanych systemów zarządzania ruchem.

O autorach:

Piotr WasilewskiPiotr Wasilewski – adiunkt na MIM UW. Doktorat z logiki matematycznej UJ, doktorat z psychologii UW. Zajmuje się obliczeniami bazującymi na percepcji, sztuczną inteligencją i jej zastosowaniami, odkrywaniem wiedzy w dużych zbiorach danych, interakcją człowiek–komputer.

.

Paweł GóraPaweł Gora – doktorant informatyki na Wydziale MIM UW, pasjonat nauki i nowych technologii. Obecnie zajmuje się modelowaniem, predykcją i optymalizacją ruchu pojazdów w mieście. W przeszłości praktykował jako inżynier oprogramowania w Microsoft, Google i CERN.