Bad_Admin писал(а):В случае залепленного снегом дорожного знака робот должен остановиться, и ожидать, пока кто-нибудь не очистит знак до такого состояния, чтобы робот мог его прочитать.
Верно, тут я был не прав.
Но точнее - включить режим особой осторожности и ехать с минимальной скоростью, в готовности среагировать на любую подлянку.
Вот если это залепленный снегом кирпич и ехать вообще нельзя - тут сложнее.
Но если робот раньше хоть раз ездил по этому маршруту, он помнит, что тут был кирпич, так же как и водитель помнит, что тут одностороннее движение - но водитель может и забыть, если ездит тут редко.
К тому же кирпич с вероятностью 99% отмечен на карте.
А если на карте кирпича нет, т.е. появился он недавно (вчера ввели одностороннее движение по этой улице), и уже залеплен снегом, то тут и человек ошибется с вероятностью 99%
Формализовать можно любую ситуацию.
Если украли знак "обгон запрещен" - можно по профилю местности (карта высот есть в памяти и не меняется со временем, как знаки), зная свою скорость, принимая скорость встречки c большим запасом относительно разрешенной, определить, безопасно ли в этом месте выходить на обгон. С большей достоверностью, чем если это сделает человек.
Кроме того, на дорогах полно мест, где обгон разрешен, но реально там обгонять опасно. И тут робот может это просчитать и рисковать не будет. У него данных больше по сравнению с водителем - та же карта высот.
Bad_Admin писал(а):Т.е. право неразрывно связано с ответственностью.
Человек принимает решения, опираясь на недостаточный набор данных, дополняя их посредством интуиции. Поэтому тут идеи речь о степени риска и ответственности за решение рискнуть.
Робот принимает решения, опираясь на достаточный набор данных. У него больше данных, чем у водителя - кроме глаз, у него есть радары и лидары, карта дорог, карта рельефа, датчики коэффициента сцепления с дорогой, информация от других роботов. Если данных недостаточно, он не едет или едет максимально осторожно, считая, что должен всех пропустить. Поэтому о принятии на себя риска и ответственности за этот риск речи не идет. Нет места для риска и причины рисковать.
Главное, чтобы алгоритм поведения робота был как можно более прост, предсказуем и понятен другим участникам ДД.
Если робот все-таки ошибся (да, это неизбежно будет случаться), и в результате кто-то погиб?
А что если ABS+ESP ошиблась, а водитель на нее надеялся? Откажемся от систем помощи водителю? Нет, потому что в большинстве случаев они предотвращают ДТП, и лишь в редких провоцируют (так же как ремни, которые в большинстве случаев спасают, но в редких убивают, когда человек мог бы выжить, вылетев из машины).
Скажешь, человек сам принимает решение полагаться на то, что ESP удержит его в этом повороте, в который он входит на скорости выше безопасной?
Ну так человек принимает решение и на беспилотной машине ехать. Кто боится - едет сам или идет пешком.
Если статистика числа погибших на дорогах будет говорить о его снижении по мере ввода беспилотников, то для большинства здравомыслящих людей решение будет однозначным.
Bad_Admin писал(а):Понятно. Программисты такие же верующие, как и прочие, над кем нынче дико модно смеяться.
Только программисты верят в самих себя, и наделяют себя функционалом Бога. Раз так уверенно говорят о том, что способны учесть бесконечное число возможных дорожных ситуаций и в принципе непредсказуемых человеческих реакций.
Бесконечное учитывать не надо. Надо учесть конечное число ситуаций, покрывающих условно 99% того, что бывает на дороге.
А в оставшемся 1% уж извините, будет так, как будет. Кому-то не повезет. Зато повезет десятку других, и они будут жить.