Кто несет ответственность за искусственный интеллект?

Технологии искусственного интеллекта развиваются и внедряются очень быстро. Зачастую такие процессы идут без обеспечения моральной и законодательной базы, они продумываются гораздо позже. Как правило, когда уже произойдет несколько громких и часто не простых ситуаций.

Сейчас как раз то время, когда ответственность не особо определена. И ответственность не только законодательная, но и моральная. Так как законы не всегда можно применить, например к международным интернет-сервисам и программам с неизвестным разработчиком.

Кто же несет ответственность за искусственный интеллект?

Тут скептики скажут — программы работают уже давно и принимают решения, ничего не меняется. А вот и нет. Ранее программы работали по алгоритмам, т.е. делали только те действия, которые заложили разработчики. Сейчас подключаются нейросети, которые принимают решения самостоятельно. И в конкретной ситуации невозможно точно предсказать какое, так как система руководствуется вероятностями, а просчитать вручную ее решение не представляется возможным. Учесть все ситуации тоже невозможно, точнее зная примерный алгоритм действия систему легко поставить в ситуацию тяжелого выбора. Например, синяя машина обладает искусственным интеллектом и управляется без участия человека.

9dae4a30aa651c9e525a163d242a3fcb.jpg

Что ей делать, если все машины вокруг резко начнут ускоряться и превышать максимально-разрешенную скорость? Или зеленая начнет резко разгонятся, а черная тормозить? Одним словом в такой ситуации ИИ (искусственный интеллект) не способен обеспечить безопасность пассажиров и может повести себя неправильно, особенно с точки зрения человека. Если эта ситуация сложится случайным образом и синий автомобиль поведет себя тупее чем человек, то кто должен стать ответственным? Разработчик? Он не знает как поведет себя система, а рассчитать все варианты невозможно — их триллионы.

Как вариант — использовать еще один интеллект для проверки действий первого. Но это не решение, почти во всех системах есть дырки, ошибки, проблемы. Рано или поздно это проявится и в проверяющей системе. ИИ развивается не только в машинах, например, IBM сделали компьютер, который начинает лечить людей, управлять самолетами и делать очень много вещей от которых зависит жизнь и комфорт людей.

Но вернемся к виновным, их может быть всего 3 — разработчик, пользователь и система.

Разработчик может нести полную ответственность, только при условии, что опишет все возможные оговорки в лицензионном соглашении, как у компании тесла — “ мы сделали автопилот, но вы не должны его включать нигде, кроме как на трассе, всегда держать руки на руле и быть готовыми к любой внештатной ситуации”. Т.е. фактически разработчик никогда не признается, что сделал полностью рабочий инструмент, а всегда будет принижать его способности и ограничивать применение для обеспечения собственной юридической безопасности.

Пользователь — несет ответственность, если нарушил условия соглашения, т.е., если учитывать прошлый абзац, то всегда.

Программа — не может нести вину, ей вообще все равно.

Как видите, текущая ситуация всегда чиста с моральной и законной точки зрения, но в реальности понятие ответственности достаточно размазанное. И пока не случится несколько действительно серьезных ситуаций — ничего не изменится. Да и потом вряд ли. Получается, что ИИ идет по миру семимильными шагами, но никто за него не отвечает.

Добавить комментарий