web Autonomne.cz

odkaz na homepage

TESLA FSD BEZ ILUZÍ V REÁLNÉM PROVOZU

Veřejná debata o tom, co vlastně znamená „Full Self-Driving“ u Tesly, znovu ožila poté, co se na YouTube objevila čerstvá videa z reálného provozu, v nichž systém v14 působí sebevědoměji než dřív, ale současně naráží na limity, které mohou být v běžném silničním prostředí kritické; ilustruje to mimo jiné přehledové zhodnocení výkonu v14, které problematizuje Muskova očekávání o robotaxích a plném dohledu-bez dozoru a místo toho ukazuje, že i režim automatizované jízdy vyžadující dohled stále vyžaduje trvalou a disciplinovanou pozornost řidiče, protože i dnešní chování vozidel není konzistentní v okrajových případech a v rychle se měnícím dění křižovatek a pasáží s vysokou hustotou interakcí.

 

 

Ještě ostřeji připomínají bezpečnostní rizika záběry z austinské akce, kde aktivistická Dawn Project demonstrovala zkoušky FSD v reálných ulicích a upozorňovala na scénáře, v nichž asistenční řízení nezareagovalo včas nebo vhodně; ať už se kdokoli přiklání k aktivistům či k fanouškům, samotná videa ukazují, že systém se může chovat překvapivě v situacích, které nejsou přesně „učebnicové“.

 

 

Zvlášť znepokojivý je motiv železničních přejezdů: záznam s testem, zda FSD bezpečně zastaví u kolejí, zachycuje situaci, kdy systém pokračuje směrem do dráhy blížícího se vlaku, i kdyby konkrétní provedení nebylo laboratorně standardizované, je to přesně kategorie vzácných a katastrofálních rizik, jejichž pravděpodobnost může být nízká, ale závažnost extrémní a kde se opírat o čistě kamerový vjem bez robustního kontextu z infrastruktury či map může být nebezpečné.

 

 

V tomto kontextu zapadá i širší mediální diskuse, která opakovaně varuje před zaměňováním pojmů: autopilot, pokročilý asistent a plné samořízení nejsou synonyma, což nedávno připomněla i kauza videa s nárazem do „neviditelné zdi“, která rozproudila kontroverzi kolem očekávání od kamerové koncepce a důvěry ve vůz v okamžiku, kdy by měl zasáhnout automatický nouzový brzdný systém bez ohledu na to, zda je Autopilot či FSD právě aktivní.

 

 

I v této debatě se vrací motiv, že AEB musí fungovat bezpodmínečně, a že marketing či přístup k testování dokáže ovlivnit, jak laická veřejnost technologie chápe a používá. Ani nová verze FSD v14 tuto tenzi nevyřešila, byť jde o největší posun Tesly za poslední rok s rychlejší reakcí na netypické překážky a zásahová vozidla. I tak systém zůstává oficiálně v režimu vyžadující dohled a podle klasifikace SAE na úrovni 2, tedy bez přenesení právní odpovědnosti za řízení. Robotaxíky jsou lákavé, ale i Muskova ambiciózní očekávání v praxi narážejí na to, co je dnes bezpečně a spolehlivě dosažitelné v heterogenním provozu. Právě ten rozdíl mezi tím, co marketing slibuje a co technologie dělá na reálné silnici, se odvíjí i od názvu samotného systému za což už i ve Francii padla námitka za klamavou obchodní taktiku a že pojmenování „Full-Self Driving“ klame spotřebitele, protože evokuje plnou autonomii, a regulační orgány hrozí denními pokutami, pokud Tesla název neupraví.

V SAE stupnici jde stále o asistenci řidiče, a že přehnané marketingové označení může vytvářet falešné mentální modely a podněcovat slepou důvěru, jež je v dopravě vyloženě nebezpečná. Z právního pohledu nelze přehlížet, že soudy v USA letos opakovaně řešily, kdo nese odpovědnost při nehodách s aktivními asistenty, i když ve sledovaném případu v Kalifornii porota nepřisoudila vinu autopilotu , argumentační osa byla stálá: autopilot je určen pro dálnice a řidič musí mít ruce a pozornost připravené k zásahu, takže viníka nelze hledat výlučně v softwaru. Takové verdikty sice mohou zmenšovat právní riziko výrobce, nicméně z pohledu bezpečnostní kultury neřeší jádro problému – kognitivní přemíru víry vůči systému, který někdy funguje brilantně a jindy selže v nečekané zkratce.

Z bezpečnostní perspektivy byla i nezodpovědná nabídka měsíční zkušební verze FSD v USA, která měla přinést více dat pro trénink, ale zároveň zvyšovala riziko, že se software dostal k řidičům, kteří bezpečnostním limitům nerozumějí a budou funkci zneužívat nebo jí budou rozumět doslova, nikoli jako asistenci. Právě testovací „demokratizace“ může krátkodobě generovat více hraničních situací v reálném provozu, protože exponuje systém šíře palety chování řidičů a prostředí, což může být z hlediska strojového učení dobře, ale z hlediska okamžité bezpečnosti obtížné.

Do mozaiky patří i označení pro autonomní taxi. v USA neprošla žádost o ochrannou známku „Robotaxi“ a debata o názvosloví pokračuje, včetně připomínky, že plán nasadit dvoumístné vozy bez volantu a pedálů v Austinu má zatím podobu testování s teleoperací a nikoli robustního provozu bez lidského dohledu. I zde se argumentovalo, že v loňském roce se v testech FSD objevoval lidský zásah v průměru po třinácti mílích, což je z hlediska bezobslužnosti stále řádově mimo požadavky plné autonomie v otevřeném městském prostředí. Konečně, k empirickým připomínkám limitů patří i zahraniční nehody, kde řidiči přiznali aktivní asistenty a současně rozptýlení, i když je vina často sdílená, celá linie argumentů se vrací k tomu, že verbální rámování funkce zásadně ovlivňuje, jak ji lidé používají.

K nehodě Tesly v Číně se přesně toto spojovalo s rétorikou výrobce a s tím, že u řady řidičů nevzniká realistické očekávání, jak často a v jakých scénářích systém chybuje nebo přepíná odpovědnost zpět na člověka. Když si tedy divák vedle sebe pustí recenzní video shrnující jak si v14 vede s konkrétními ukázkami živých testů a s materiály demonstrujícími potenciálně katastrofické selhání na přejezdu, jeho intuitivní závěr bude nejspíš střízlivý: FSD v14 možná přináší reálný evoluční krok a přesvědčivěji jede s proudem běžného provozu, ale právě tam, kde realita porušuje vzorce, od prací na silnici přes neobvyklé vodorovné značení po nechráněné přejezdy, je třeba vkládat do systému vrstvy redundance, aby řidič nedoplácel na jistotu, že „to přece dává“. Z technického hlediska by tomu pomohlo konzistentnější čerpání strukturovaného kontextu z infrastruktury a digitálních map, důslednější validace AEB na statické i dynamické okrajové scénáře a transparentní sběr a publikace dat o zásazích řidiče v jednotlivých typech scénářů, protože bez této otevřenosti se veřejná debata vždy zvrhne v souboj dojmů mezi optimisty a skeptiky.

V českém kontextu k tomu články na autonomne.cz dlouhodobě nabádají nepřímo i přímo: když se píše o nové verzi FSD, je současně zdůrazněno její právní postavení a nutnost dohledové role, když se analyzuje marketing či názvosloví, varuje se před kognitivními zkresleními, a když se rozebírají soudní kauzy a nehody, vrací se důraz na odpovědnost člověka i systému a na to, že skutečná bezpečnost nevzniká z jednoho „velkého kroku“ v softwaru, ale z trvalé disciplíny v provozu, z přesné komunikace limitů a z ochoty výrobců i uživatelů přijmout, že autonomie bez robustní infrastruktury je prostě ještě daleko.


 
Úvodní obrázek: Ilustrativní obrázek (zdroj: Copilot)