Режим работы: пн-сб с 10:00 до 19:00; вс - выходной
Заключение ГАИ №77/54/1/2019
| vk.com/arrisavto |

Центральный офис: г. Москва, ул. Бауманская д.16, стр.1

Тел: +7 495 145 56 05, +7 (929) 556-05-22 ЗАКАЗАТЬ ЗВОНОК
В шаговой доступности от метро Бауманская, Красносельская

 

АКЦИЯ!!!

  • При записи в группу на 29 сентября скидка 3000 р

  • Дополнительная скидка 1000 р при обучении теории онлайн

 

 

ВНИМАНИЕ!!!

  • Автошкола Аррис приглашает к сотрудничеству инструкторов

  • Подробнее по телефонам +7 495 145 56 05, +7 (929) 556-05-22

 

Систему полуавтономного управления AutoPilot, разработанная для электромобилей Tesla, можно назвать самой известной среди аналогичных разработок. Именно поэтому она регулярно становится объектом попыток взлома – и порой успешных.

Лаборатория Tencent Keen Security Lab исследовательской фирмы Tencent из Китая опубликовала отчет о нескольких успешных попытках обхода основных алгоритмов деятельности автопилота Tesla: китайцам в ходе двух экспериментов удалось заставить электронику действовать "не по правилам" при помощи достаточно простых методов, а третий продемонстрировал не слишком высокую устойчивость софта Tesla к взлому.

Орудием первого эксперимента в рамках предпринятого исследования стала белая клейкая пленка: из нее китайцы вырезали "альтернативную разметку" и наклеили неподалеку от официальной дорожной. Сканеры Tesla, увы, не распознали фальшивку. В итоге "мозги" электромобиля, опиралаясь на неверные сведения, допустила выезд на встречную полосу, а чем это чревато, никому объяснять не надо.

В ходе второго исследователям удалось ввести в заблуждение систему распознавания плохой погоды, которая отвечает в том числе и за включение стеклоочистителей. При этом они обошлись вообще без воды: достаточно было разместить перед сканерами фальшивое изображение, которое проецировалось на специальный монитор.

Наконец, третий эксперимент позволил исследователям обнаружить уязвимость в программном обеспечении Tesla и обеспечить доступ к рулевому управлению электромобиля при помощи обычного геймпада. Как сообщили в лаборатории, доступ удалось организовать через систему AutoPilot, при этом она даже не была активирована.

Экспериментаторы уже получили и официальный ответ от производителя. В Tesla назвали эксперимент с "дворниками" искусственно смоделированной ситуацией, с которой в реальности водители вряд ли столкнутся. По поводу фальшивой разметки компания подчеркнула, что всегда настаивает на необходимости постоянного контроля за дорожной ситуацией со стороны водителя. Наконец, по поводу взлома софта и управления электромобилем при помощи геймпада было заявлено, что обнаруженная исследователями уязвимость была зафиксирована производителем еще в 2017 году – и тогда же ликвидирована.

 

Отзывы наших учеников


Безопасный водитель – это правильно обученный водитель и мы Вас этому научим!