Некоторые могут спросить: «А чего собственно бояться?».

И я им отвечу. Представьте ситуацию: двух полосная дорога с встречным движением, закрытая отбойниками, автомобиль с автопилотом едет на скорости 140 км. в час, а на встречке мчит грузовик. Тут же дорогу перед нашим автопилотом, дорогу перебегает злосчастный пешеход. И тут у автопилота возникнет резонный вопрос: «Что делать?».

И есть несколько вариантов:

  1. Сбить пешехода (водитель автопилота выживет, пешеход имеет на это меньше шансов);
  2. Столкнуться с грузовиком (тут уж водитель автопилота не выживет, пешеход – ну кто его знает, как судьба повернется);
  3. Влететь в отбойник – не поможет.

А самый главный вопрос: «Кто будет нести ответственность, в любом из этих случаев?».

Вариант № 1 Аналогии:

Автомобиль, а тем-более с автопилотом есть средство повышенной опасности, а следовательно:

Согласно пункту 1 статьи 1079 Гражданского кодекса Российской Федерации, 1. юридические лица и граждане, деятельность которых связана с повышенной опасностью для окружающих (использование транспортных средств, механизмов, электрической энергии высокого напряжения, атомной энергии, взрывчатых веществ, сильнодействующих ядов и т.п.; осуществление строительной и иной, связанной с нею деятельности и др.), обязаны возместить вред, причиненный источником повышенной опасности, если не докажут, что вред возник вследствие непреодолимой силы или умысла потерпевшего. Владелец источника повышенной опасности может быть освобожден судом от ответственности полностью или частично также по основаниям, предусмотренным пунктами 2 и 3 статьи 1083 настоящего Кодекса.

То есть, получается, что ответственность за решение, фактически принятое роботом, будет нести человек.

Но ведь человек, никак не завязан с алгоритмом принятия решения.

Значит этот вариант, нам не подходит.

Вариант № 2.

Так как мы поняли, что алгоритм принятия решения роботом, составляется его изобретателем, то может стоить привлекать его?

Честно не уверен в этом варианте. Да и статей не нашел походящих.

Вариант № 3 Наказание виновных.

Европарламент не так давно принял резолюцию на счет Роботов.

И один из пунктов резолюции говорит о том, что:

Самый сенсационный момент — создание особого правового статуса для роботов, они станут «электронными личностями» с правами и обязанностями.

То есть, робот будет фактически сам отвечать за свои действия.

Честно сказать с высоты своей колокольни могу сказать только одно: Боится ли робот потерять свою жизнь или ограничений свободы – если нет, то и его ответственность довольно эфемерное понятие, которое ни пощупать ни понюхать нельзя.

Готов услышать, Ваши мнения дорогие коллеги на эту тему, может к чему придем.

Да 10 10

Ваши голоса очень важны и позволяют выявлять действительно полезные материалы, интересные широкому кругу профессионалов. При этом бесполезные или откровенно рекламные тексты будут скрываться от посетителей и поисковых систем (Яндекс, Google и т.п.).

Участники дискуссии: Ильин Александр, Коробов Евгений, Семячков Анатолий, Гурьев Вадим, Климушкин Владислав, cygankov, Петров Станислав, morozov-laws, yevgeniy, Гулый Михаил, advokatantonov, mister2012, Морохин Иван
  • 15 Марта 2017, 19:50 #

    Уважаемый Глеб Клавдиевич, тема интересная.
    Полагаю в любом случае активировать автопилот будет водитель или собственник чудо машинки. Явно он пройдет несколько ступеней подтверждения в меню прежде чем автопилот активируется. Явно он должен будет следить за дорожной обстановкой на случай отключения автопилота (как пилоты в самолете), а не сидеть на заднем сидении с бкалом коньяка и сигарой. :D

    +7
    • 15 Марта 2017, 20:17 #

      Уважаемый Александр Валерьевич, у Вас компьютер никогда не начинал работать без Вашего участия? Если нет, то Вам повезло.
      Мы смеялись над недеспособностью юридическоо лица. Вот она явь — недеспособность робота.
      Всё зависит от идиотов, которые принимают идиотские законы и от идиотов, которые с ними соглашаются. Попомните моё предвидение в части недееспособности роботов. Предпосылки к этому  есть и они  принимаются правовым сообществом.
      Собственники роботов, их создатели и производители — это огромные концерны, которые любое право прогнут и нагнут в нужную сторону. Подобная  попытка для одного «животного» прогнуть и нагнуть право закончилась трагически с реальной посадкой на шесть лет, чего невозможно даже просто в теории представить в отношении концернов. То, что казалось фантастикой ещё вчера — «Чипполино», «Незнайка на луне»,  роботы в жизни человека, сегодня уже воплощено в жизнь. ;(
      Так что робот будет нести ответственность… если он человеку не навешает в скором времени… люлей!

      +6
      • 15 Марта 2017, 20:34 #

        Уважаемый Евгений Алексеевич, кстати Вольво уже заявили, что будут нести ответственность за ДТП с автомашинами беспилотниками! Но когда их станет много, то...
        Но робот скорее всего не будет сам по сибе. Кто-то же будет за него ответственнен. Включать, выключать, на зарядку ставить, мозги прошивать, перезагружать и т.д.
        Хотя о чем это я? ЦРУ запрограмирует всех роботов в своих интересах :D и в один прекрасный день они все в раз по каманде востанут :D
        То ли смеятся, то ли плакать…

        +7
        • 15 Марта 2017, 20:47 #

          Уважаемый Александр Валерьевич, в один прекрасный момент стали взрываться все самсунговские телефоны, так что ничего смешного, на самом деле, я не вижу. Опасность — да.  А по поводу Вольво — посмотрим, кто в тюрьму вместо робота пойдёт, когда десятки жертв будут. А если законом этой страны предусмотрена смертная казнь? 
          Я говорю об этом на полном серьёзе. И пусть в меня кидали булыжники при обсуждении вопроса о недееспособности юридического лица, то тема недееспособности робота позволяет более чётко смотреть на опасность проблемы и законности подобных правовых формулировок. 
          Создание совершенных программ позволит роботам принимать свои решения, независимо от воли  изобретателей!

          +6
          • 15 Марта 2017, 21:05 #

            Уважаемый Евгений Алексеевич, мы постипиенно становимся «матрицей»… даже фантазировать страшно, что будет дальше…

            +6
            • 15 Марта 2017, 21:11 #

              даже фантазировать страшно, что будет дальше… Уважаемый Александр Валерьевич, пришёл робот в магазин и купил своим роботятам «людишек» в игрушки… маленьких по три, а больших, ну по пять...(rofl)

              +6
    • 16 Марта 2017, 02:41 #

      Уважаемый Александр Валерьевич, не совсем так, уже сейчас такие автомобили просто «гуляют» сами по себе. Google много лет проводило в заброшенных городах США конкурсы на лучшую конструкцию автомобиля без человека. Энтузиасты привозили свои разработки и машинки просто гоняли по городу. После они стали соревноваться — нужно было первым прийти к заданной точке. Потом им стали ставить препятствия и создавать «заковыристые» ситуации. Позднее им разрешили мешать друг другу. И вот результат.

      +5
  • 15 Марта 2017, 20:27 #

    Уважаемый Глеб Клавдиевич!
    автомобиль с автопилотомА автопилот уцелеет в этом ДТП?
    Сохранится в виде, пригодном для экспертизы?

    +3
    • 16 Марта 2017, 09:39 #

      Уважаемый Анатолий Кириллович, вы думаете это имеет какое-то значение? Ведь факт уже будет состоявшимся, человек мертв, а автопилот это ведь по большей части программа — строка кода, так что она будет цела.

      +1
  • 15 Марта 2017, 20:41 #

    Уважаемый Глеб Клавдиевич, пока робот кусок железа, за него отвечает человек.

    Над созданием искусственного интеллекта ученые бьются, а когда все же в недалеком будущем его создадут, это обстоятельство может перекроить представление о дееспособности.

    +4
    • 16 Марта 2017, 09:41 #

      Уважаемый Вадим Иванович, согласен с Вами, в определенной мере, если это будет «полноценный» искусственный интеллект, то и ответственность должен будет нести он.

      +2
  • 16 Марта 2017, 04:46 #

    Уважаемый Глеб Клавдиевич, а ведь фантасты предупреждали своих читателей: нужен «первый закон робототехники». Помните его формулировку?

    +4
    • 16 Марта 2017, 07:51 #

      Уважаемый Владимир Михайлович, вспомните также, что стало с роботом, у которого вошли в противоречие два первых закона робототехники. Он просто стал бегать вокруг озера по кругу, ибо согласно первого закона, он должен был сделать всё, чтобы спасти жизнь человека, а спасение было на озере, но согласно второго закона он не мог попасть на озеро, потому что погиб бы сам. 
      Так что не всё так просто.

      +2
      • 16 Марта 2017, 07:59 #

        Уважаемый Евгений Алексеевич, по сюжету произведения была неправильно поставлена задача, так называемая не конкретная задача.
        Когда космонавт смог приблизиться к роботу и дать нужную команду, ситуация разрешилась.
        Виноват кто? Тот, кто поставил некорректную задачу.

        Это как мечтать о машине «Тойота».
        Швейная подойдет?

        +4
    • 16 Марта 2017, 09:44 #

      Уважаемый Владимир Михайлович, как в предложенной ситуации применить эти закон робототехники? Ведь у робота есть одна задача ехать вперед или даже из пункта «А» в пункт «Б», а тут как говориться выбор из двух зол. Так, что не уверен о применимости этих законов.

      +1
      • 16 Марта 2017, 11:23 #

        Уважаемый Глеб Клавдиевич, это просто рассуждения с элементом фантастики.
        Чтобы какой-либо закон (не физический) работал или мог быть применим, необходимы некоторые существенные условия.
        Главное условие — наличие у робота «соображалки», т.е. разума.
        А до этого пока далеко.
        Правильно сказано, что ныне робот — это вещь и бремя ответственности должен нести создатель вещи или владелец.

        +2
        • 16 Марта 2017, 12:30 #

          Уважаемый Владимир Михайлович, ну в нашем случае владелец.

          0
      • 16 Марта 2017, 18:34 #

        Уважаемый Глеб Клавдиевич, Вы, видимо, не читали этот старый фантастический рассказ Айзека Азимова «Хоровод». Там сформулировано три закона робототехники.

        +3
        • 22 Марта 2017, 05:08 #

          Уважаемый Владислав Александрович, в СМИ оповещают: скоро на луну туристы полетят за 200 000 баксов.
          С удовольствием перечитаю роман А.Кларка «Лунная пыль».8)

          +1
  • 16 Марта 2017, 08:05 #

    Уважаемый Глеб Клавдиевич, а может мы идём к созданию сверхчеловека по Ницше, только слегка в иной интерпретации!?
    До сих пор все существа создавали нечто, что превосходило их, а вы хотите быть отливом этой великой волны и скорее снова возвратиться к зверям, чем преодолеть человека? Что такое обезьяна для человека? Посмешище или мучительный позор. И тем же самым должен быть человек для сверхчеловека, — посмешищем или мучительным позором.
    Ф. Ницше «Так говорил Заратустра».

    +2
    • 16 Марта 2017, 18:37 #

      Уважаемый Станислав Георгиевич, сверхчеловек не знающий благородства, понимания, жалости, любви — не сверхчеловек. Если такой сверхчеловек будет смеяться над своим предтечей-человеком, то это будет подобно Хаму (и увидел Хам сын Хана наготу отца своего, и стал над ним смеяться...). 
      Хам — это не сверхчеловек.

      +3
      • 17 Марта 2017, 08:25 #

        Уважаемый Владислав Александрович, сверхчеловек не знающий благородства, понимания, жалости, любви — не сверхчеловек.Это если рассуждать с позиции христианства, а Ницше, сами знаете, как решил подобную тему в «Антихристе» — " Что дурно? — Все, что происходит из слабости." и т.п. (прим. — я не сторонник Ницше).
        Хам — это не сверхчеловек.А вот этот случай из писания, отвлекусь от темы (почему был проклят Ханаан, а не Хам), нужно донести в верха законотворчества, т.к. вся суть сводится к тому, что каждый несет ответственность за свой грех, и сын не понесет наказание за проступок отца, как и наоборот.

        +1
  • 16 Марта 2017, 11:19 #

    Уважаемый Глеб Клавдиевич,

    отвечает владелец вещи.

    +1
  • 16 Марта 2017, 12:34 #

    Более того, вопросы ответственности за поведение живой вещи, способной совершать самостоятельные действия, были успешно решены еще древнеримским правом)))

    +1
    • 16 Марта 2017, 14:23 #

      Уважаемый Михаил Михайлович,(Y) внесли добротную мысль (полезно вспомнить матчасть), которая отвечает на вопрос о потребности человека в рОботах, а потребность заключается в желании иметь рабА (рОбота, который станет рабом для человека во всех сферах).

      +1
  • 18 Марта 2017, 17:05 #

    Уважаемый Глеб Клавдиевич, а почему в описанной Вами ситуации должен кто-то отвечать. Исходя из описанных условий, виновник-пешеход ответит на месте, не отходя от кассы. И согласно степени своей вины отправится либо на инвалидность, либо к праотцам. А роботу не надо закладывать в программу алгоритм, учитывающий идиотизм пешехода, переходящего дорогу в не положенном месте, в условиях, исключающих своевременную остановку авто даже роботом. Да и не возможно это, поскольку степень идиотизма человека просчитать не возможно.

    +2
    • 20 Марта 2017, 18:08 #

      Уважаемый Антон Александрович, Вы предполагаете, что нужно будет и робота тоже защищать от идиотизма человека, да ещё учитывать, что люди будут валить всю вину на робота, пользуясь своим человеческим статусом и явной неприязнью остальных людей к ним. Так может правильно признать их особыми электронными личностями и брать под защиту как человека? Этакая юридическая фикция, чтоб на них вину не валили!

      +3
      • 21 Марта 2017, 04:30 #

        люди будут валить всю вину на робота, пользуясь своим человеческим статусом и явной неприязнью остальных людей к нимУважаемый Владислав Александрович, людям вообще свойственно сваливать свою вину на кого угодно, лишь бы не отвечать самому за свои ошибки. 

        Поскольку мне довелось лично участвовать в подготовке пользовательского соглашения, стандартных ответов и внутренних инструкций для службы техподдержки, мне пришлось изучить тысячи «жалоб» и «заявлений» пользователей сайта, 99,9% из которых являются проявлением «криворукости» и «бесшабашности» самих пользователей, принципиально не обращающих внимание ни на правила, ни на подсказки, ни даже на прямые технические ограничения (например: «Невозможно загрузить фал более 10 Mb. Загрузите ДРУГОЙ (меньшего размера) файл»). 

        Есть «уникумы», пытающиеся загружать явно «непроходной» файл по 50+ раз, и отправляющие десятки одинаковых «жалоб» в техподдержку, с примерно такими требованиями: 
        Вы там что, все тупые?! Я хочу загрузить ЭТОТ файл, а ваша дурацкая система отказывается его принимать — это нарушение моих прав, я буду жаловаться… (длинный перечень куда).Ну и как можно относиться к таким «умникам»? :x

        +4
        • 21 Марта 2017, 15:23 #

          Уважаемый Иван Николаевич, полагаю, их надо тоже какой-то директивой ЕС признать особыми субличностями, нуждающимися в специальной защите в связи с тем, что не понимают и не принимают окружающего компьютерно-техногенного мира. 

           У нас признавать не надо, у нас Президент за всех заступится, а не заступится — мы его осудим, на кухне, за бутылкой водки.

          +2
          • 22 Марта 2017, 04:20 #

            их надо тоже какой-то директивой ЕС признать особыми субличностями, нуждающимися в специальной защитеУважаемый Владислав Александрович, а не много-ли наши законодатели наплодили юридических фикций? Мне уже кажется, что в результате безудержного, бессмысленного и беспощадного нормотворчества, законодательство превратилось в «лоскутное одеяло», за которым уже нет единой доктрины, а это ни к чему хорошему не приведёт.

            +4
      • 22 Марта 2017, 09:57 #

        Уважаемый Владислав Александрович, не знаю, надо у роботов спросить, надо ли им это. Думаю, что ввиду отсутствия у них какой-либо психологии, они даже не поймут о чем речь, поэтому сваливание людьми на них вины роботам «до лампочки». Но в качестве очередного проявления одной из крайних степеней того самого, почему бы и нет: создать в ГосДуме Комитет по защите прав роботов, выделить бюджет на его финансирование.

        +4

Да 10 10

Ваши голоса очень важны и позволяют выявлять действительно полезные материалы, интересные широкому кругу профессионалов. При этом бесполезные или откровенно рекламные тексты будут скрываться от посетителей и поисковых систем (Яндекс, Google и т.п.).

Для комментирования необходимо Авторизоваться или Зарегистрироваться

Ваши персональные заметки к публикации (видны только вам)

Рейтинг публикации: ««Я робот – я не виноват!».» 2 звезд из 5 на основе 10 оценок.
Адвокат Морохин Иван Николаевич
Кемерово, Россия
+7 (923) 538-8302
Персональная консультация
Сложные гражданские, уголовные и административные дела экономической направленности.
Дорого, но качественно. Все встречи и консультации, в т.ч. дистанционные только по предварительной записи.
https://morokhin.pravorub.ru/

Похожие публикации