Chociaż wczorajsze oświadczenie Tesli ma mnóstwo niezwykle interesujących implikacji dla najbliższej przyszłości firmy i całych branż, a my zajmiemy się nimi dzisiaj lub do końca tygodnia, zacznijmy od samej „aktualizacji produktu”, która jest dodanie nowego sprzętu we wszystkich nowych Teslasach zjeżdżających z linii we Fremont na początku tego tygodnia.
Nowy pakiet sprzętowy Autopilota Tesli składa się z 8 kamer, 1 radaru, czujników ultradźwiękowych i nowego superkomputera do obsługi kompleksowego oprogramowania do przetwarzania obrazu „Tesla Vision” oraz sieci neuronowej, która jest prawdziwą gwiazdą tego programu.
To, co było naprawdę „nieoczekiwane” przez większość, to fakt, że Tesla porzucił oryginalny pakiet Autopilot 2.0, który umożliwiałby autonomię poziomu 3/4, a zamiast tego przeskoczył bezpośrednio do pakietu, który ostatecznie może obsługiwać pełną autonomię poziomu 5.
Nowy pakiet nadal ma ultradźwięki i wybiegający w przyszłość radar, ale jak wcześniej informowaliśmy, pełna autonomia wymaga zasięgu kamery 360 stopni, który jest głównym dodatkiem do nowego zestawu czujników:
Jedną z rzeczy, które przeniesiono z oryginalnego pakietu Autopilot 2.0, są potrójne kamery z przodu:
- Główna kamera przednia: maksymalna odległość 150 m przy polu widzenia 50 °
- Wąska kamera przednia: maksymalna odległość 250 m z polem widzenia 35 °
- Kamera szerokokątna: maksymalna odległość 60 m przy polu widzenia 150 °
Kamery przednie są umieszczone w wycięciu lusterka wstecznego, podobnie jak kamera Autopilot w pierwszej generacji systemu:
Tesla ciężko pracowała nad bezproblemową integracją kamer w samochodzie i pokazuje - a właściwie nie pokazuje.
Boczne kamery w przednich błotnikach są faktycznie zintegrowane z odznakami Tesli, które były już w poprzedniej wersji samochodu. W przypadku kamer bocznych pośrodku samochodu Tesla wykonała małe wcięcie w środkowych słupkach między drzwiami.
Oto zdjęcia każdego nowego aparatu:
Śnieg lub lód nie stanowią problemu, ponieważ kamery są wyposażone w grzejniki.
Wszystkie te kamery obsługują „Tesla Vision”, kompleksowe oprogramowanie do przetwarzania obrazu producenta z siecią neuronową. W tym miesiącu opublikowaliśmy ekskluzywny raport na temat „Tesla Vision” z dodatkowymi szczegółami na temat systemu: „Tesla zamierza zwiększyć swoją przewagę w zakresie półautonomicznej jazdy w /„ Tesla Vision”: wizja komputerowa oparta na równoległej platformie obliczeniowej NVIDIA”.
Chociaż powinniśmy zgłaszać „w pełni autonomiczny” zamiast „półautonomiczny”, ale nie spodziewaliśmy się, że system będzie miał zasięg kamery 360 stopni.
Oprócz kamer, Tesla Vision to tak naprawdę główna aktualizacja do pojazdów Tesli ogłoszona wczoraj. W przeciwieństwie do pierwszej generacji systemu we współpracy z Mobileye, nie jest w to zaangażowane oprogramowanie innych firm. System przetwarzania obrazu zbudowany jest na opracowanej przez Teslę sieci neuronowej działającej na równoległej platformie obliczeniowej CUDA firmy Nvidia.
Jak informowaliśmy, oczekiwano, że system będzie działał na sprzęcie Nvidia, a podczas gdy firma niedawno uruchomiła kilka platform zbudowanych specjalnie dla samochodów samobieżnych, Tesla zastosowała tańsze rozwiązanie: GPU Nvidia Titan.
Aktualizacja: Nvidia mówi teraz, że nowe pojazdy Tesli są wyposażone w platformę Drive PX 2, a nie GPU Titan
Tesla twierdzi, że sprawia, że nowy komputer pokładowy jest ponad 40 razy mocniejszy niż poprzednia generacja i działa na osobnym kanale niż komputery zasilające jednostkę centralną mediów i zestaw wskaźników.
Największy bummer dla obecnych właścicieli Tesli. System nie podlega modernizacji. Podczas gdy coś w rodzaju kamer przednich nie powinno być zbyt trudne do zainstalowania, kamery boczne byłyby koszmarem do modernizacji, a Musk powiedział, że prawdopodobnie będzie to kosztować więcej niż tylko zakup nowego samochodu.