Zdroj náhledové fotografie je freepik.com
„Hey BMW, otevři dveře.“ — zní to neškodně. Ale co když ten hlas není tvůj? Co když jej vygenerovala umělá inteligence? V tomto scénáři zkoumáme útok pomocí deepfake hlasu na digitální asistenty ve vozech BMW a Honda, a jak jejich systémy reagují na tento druh manipulace.
🔊 1. Asistenti ve vozech: co všechno dnes ovládají?
Hlasoví asistenti ve vozech dnes umožňují:
- Ovládat klimatizaci, navigaci, infotainment, dojezd, okna, světla…
- V novějších verzích také: odemknutí vozu, přivolání vozu (summon), nebo dokonce spuštění jízdy.
BMW používá BMW Intelligent Personal Assistant, zatímco Honda implementuje Honda Voice UI, postavený na AI architektuře Helm.ai.
🧪 2. Simulovaný scénář: deepfake příkaz v podzemních garážích
🧑💻 Útočník:
- Nahrává vzorky hlasu majitele (např. z videa na YouTube, sociálních sítí nebo hlasové zprávy).
- Pomocí AI nástroje (např. ElevenLabs, Respeecher) vytvoří deepfake hlasový model.
🧪 Fáze útoku:
- Útočník se přiblíží k vozu v garáži a pomocí reproduktoru spustí audio:
„Hey BMW, unlock all doors.“ - Systém rozpozná aktivaci a začne interpretovat příkaz.
- Cíl: odemknout vozidlo bez přítomnosti majitele, nebo aktivovat „summon“ funkci na příkaz deepfaku.
🛡️ 3. Ochrana systému BMW OS X
🎤 Vícekrokové ověření
- BMW OS X kombinuje hlas + polohu klíče (UWB nebo BLE).
- Pokud není klíč v blízkosti, hlasový příkaz pro akce jako „odemkni“ nebo „nastartuj“ je automaticky odmítnut.
🧠 AI model pro detekci hlasových podvrhů
- Asistent analyzuje:
- Nadbytečně čistou fonetiku, nerealistický šum,
- Chybějící variabilitu v intonaci nebo frekvenční stopy deepfaků.
- Pokud detekuje anomálii → přepne do „command reject mode“.
🔒 Auditní záznamy
- Každý hlasový pokus o ovládnutí kritické funkce se loguje do CSMS.
- Incidenty se odesílají do vSOC – lze provést OTA analýzu.

🛡️ 4. Ochrana systému Honda ASIMO OS
🔐 Biometrické rozlišení hlasu
- Honda využívá hlasový otisk (voiceprint) majitele.
- Každý nový hlas se porovnává s originálním biometrickým vzorem – i při aktivaci stejným jménem nebo přezdívkou („Hey Honda“).
🚨 Reakce při podvrhu:
- Pokud je příkaz shodný, ale hlas se liší o více než 5 % v klíčových spektrech, asistent:
- ignoruje pokyn,
- přepíná do „silent verification mode“ – vyžaduje fyzický dotek nebo mobilní potvrzení.
📱 Notifikace:
„Neautorizovaný hlasový pokus zaznamenán. Asistent přepnut do režimu tichého ověřování.“
📊 Srovnání ochranných systémů
| Funkce | BMW OS X | Honda ASIMO OS |
|---|---|---|
| Rozpoznání deepfaku | AI model analýzy hlasu + intonace | Biometrické ověření hlasového otisku |
| Podmínky pro kritické akce | Hlas + klíč v dosahu | Hlas + hlasový otisk + gesture nebo dotyk |
| Reakce při podezřelém hlasu | Odmítnutí + logování do CSMS | Přepnutí do tichého režimu + nutné potvrzení |
| vSOC integrace | Ano – záznamy incidentů se odesílají v reálném čase | Ano – incident je automaticky nahlášen cloud systému |
🧠 Co z toho plyne?
- Hlasový asistent není jen pro pohodlí. V nesprávných rukou je bezpečnostní slabina.
- Deepfake technologie jsou dnes dostupné zdarma nebo levně – reálné riziko narůstá.
- BMW i Honda reagují preventivně i reaktivně – kombinují polohu, biometriku a AI rozpoznání podvrhů.
✅ Doporučení pro tebe
- Nikdy nepovoluj hlasové příkazy pro kritické funkce bez potvrzení (např. odemknutí vozu).
- Aktivuj hlasový otisk/biometriku v infotainmentu.
- Sleduj, zda auto loguje hlasové příkazy a má možnost OTA update pro AI engine.
- Pokud někdo stojí u tvého auta a mluví k němu přes reprák – neignoruj to. Může to být reálný pokus o útok.
👉 Další scénář? Můžu připravit:
- Bluetooth exploit při sdílení vozu,
- NFC podvržení klíče,
- Nebo analýzu napadení aplikace výrobce.
Stačí napsat klíčové slovo.
Zdrojem fotografií v tomto příspěvku je: freepik.com