A Tesla FSD v14 már érti az emberi kézmozdulatokat

A Tesla legújabb Full Self-Driving (Supervised) bétája, a v14.1.3-as verzió, úgy tűnik, elsajátított egy új, és mondjuk ki, kifejezetten emberi trükköt: a kézmozdulatok értelmezését. Egy, a FSD-t régóta tesztelő Chuck Cook által közzétett videó azt mutatja, hogy egy Tesla jármű helyesen értelmezi egy forgalomirányító jelzéseit egy ideiglenesen lezárt útszakaszon, és ennek megfelelően módosítja az útvonalát. Ez a frissítés jelenleg az early access tesztelők számára válik elérhetővé.

A klip bemutatja, ahogy a jármű felismeri a forgalomirányító gesztusait, az utasítást vizualizálja a vezető kijelzőjén, majd áttervezi az útvonalat. Évek óta az autonóm rendszerek profin olvasnak statikus, szabványosított jelzéseket. Azonban egy emberi forgalomirányító árnyalt, és gyakran szeszélyes mozdulatainak értelmezése egy teljesen más szintű számítási komplexitást képvisel – olyat, amit még az emberi sofőrök is elrontanak néha.

A v14-es szoftverágat a Tesla jelentős előrelépésként harangozta be, amely a Robotaxi programjából származó tanulságokat építi be a valós navigáció javítására. Bár a v14.1.3 hivatalos kiadási jegyzetei említik az elzárt utak és terelőutak jobb kezelését, az emberi gesztusok feldolgozásának képessége egy jelentős, ám nem listázott előrelépést jelent a rendszer helyzetfelismerő képességében.

Miért fontos ez?

Ez a fejlesztés kritikus lépést jelent az egyszerű objektumfelismerésen túl, a szándék értelmezésének birodalmába. Egy kaotikus, kiszámíthatatlan építési területen, emberi irányítás mellett navigálni egy klasszikus “edge case” volt, amely hosszú ideje kihívást jelentett az autonóm vezetési rendszerek számára. Míg egy stop tábla leolvasása megoldott probléma, addig egy integető ember megértése alapvető lépés a valódi 4-es vagy 5-ös szintű autonómiához szükséges folyékony, valós idejű alkalmazkodóképesség felé. Ez azt sugallja, hogy a rendszer már nem csak a közlekedési szabályokat követi, hanem kezdi azokat kontextusban értelmezni.