Мюнхенські дослідники розробили алгоритм, який має вирішити етичні питання поведінки роботизованого автомобіля

Автономні автомобілі повинні реагувати в надзвичайних ситуаціях краще, ніж людина. Але що робити, якщо аварії не уникнути, незважаючи на чудову швидкість реакції?
Технічно і юридично в питанні автономного водіння ще багато чого потрібно прояснити. Але моральні питання також залишаються відкритими: Як, наприклад, повинен поводитися автомобіль-робот у разі неминучої аварії? Дослідники з Мюнхенського технічного університету розробили алгоритм, який має відповісти на це питання етично коректно. Автономний автомобіль майбутнього вбиватиме в разі аварії за планом. У той час як людина навряд чи має шанс свідомо відреагувати за секунди до зіткнення, робот-автомобіль за цей час може здійснити мільйони обчислень – і вибрати один з декількох варіантів дій. Чи вріжеться він в стіну і принесе в жертву пасажирів, чи обире шлях у натовп? Зіткнеться автомобіль з великим позашляховиком чи з маленькою машиною, яка для неї менш небезпечна? Яка ймовірність протаранити велосипедиста в шоломі чи без шолома, коли він вилітає з сідла? Щоб вирішити це, машині потрібен своєрідний моральний кодекс. І люди повинні його запрограмувати.
Етика автомобілів-роботів також дедалі більше привертає увагу автовиробників: як має діяти повністю автоматизований автомобіль майбутнього в таких дилематичних ситуаціях? Коли, незважаючи на кілька альтернативних варіантів дій, на кону завжди стоять людські життя або принаймні матеріальні цінності? Ще у 2017 році 86% представників індустрії, опитаних ІТ-асоціацією Bitkom, висловилися за створення незалежної ради з етики, яка б визначала правила поведінки у випадку інцидентів.
Моральний кодекс: дискусія з експертами
Комітет мав складатися з філософів, юристів, техніків і політиків. Альтернатива, коли кожен окремий автовиробник застосовував би свої власні правила, вже тоді вважалася небезпечною. Тому що тоді програмування транспортного засобу стане важливим моментом у прийнятті рішення про покупку. Та й хто захоче купувати автомобіль, який у разі неминучої аварії наражатиме на небезпеку свого водія, щоб уникнути інших пошкоджень? Наслідком може стати жорсткий егоїзм алгоритмів.
Етичний алгоритм мюнхенської дослідницької групи, який зараз опублікований в журналі Nature Machine Intelligence, не повинен піддаватися цій “слабкості характеру”. З цією метою були визначені п’ять факторів, які повинні відігравати роль у прийнятті рішень:
- прийнятний максимальний ризик маневру
- особливий захист тих, хто може постраждати найбільше
- рівне ставлення до всіх людей
- мінімізація загального ризику
- особиста відповідальність учасників дорожнього руху
Таким чином, у майбутньому ризик буде справедливо розподілений між автономними транспортними засобами, звичайними автомобілями, пішоходами та двоколісними транспортними засобами.
Поки що цей алгоритм існує лише в лабораторії, а не на дорозі. Однак повністю автономних серійних автомобілів поки що теж не існує. Але технологія розвивається, повільно, але впевнено. Вже сьогодні автомобілі можуть виконувати гальмівні маневри, змінювати напрямок руху або проїжджати затори без втручання людини. Очікується, що до кінця десятиліття комп’ютер візьме на себе все більше і більше завдань водія. Перші автомобілі, такі як Mercedes EQS, керуються високоавтоматизовано, принаймні за певних умов, тоді як людина за кермом може присвятити себе іншим видам діяльності. У середньостроковій перспективі, ймовірно, розпочнеться серійне виробництво автомобілів-роботів, які перевозитимуть пасажирів без водія та будуть позбавлені керма та педалей.
Випереджувальне та захисне водіння
Автономні автомобілі покликані уникати критичних рішень, наскільки це можливо, за допомогою випереджаючого і скоріше захисного стилю водіння. У більш складних дорожніх ситуаціях, однак, у середньостроковій перспективі можуть виникнути ситуації, коли цього вже буде недостатньо. Тоді автомобіль може бути змушений вибирати між кількома діями з небажаними наслідками. І – як було сказано на початку – вирішити, чи зіткнення з вантажівкою чи з невеликим автомобілем.
За словами вчених, тисячі симуляцій підтвердили, що програмне забезпечення мюнхенських дослідників принципово здатне оцінювати такі ситуації. Тим не менш, система завжди матиме свої межі. Наприклад, оцінюючи особисту відповідальність інших учасників дорожнього руху, вона не може розрізнити, чи хтось вийшов на дорогу з необережності, чи його штовхнули. Клаудія Брандл з Інституту оцінки технологій Карлсруеського технологічного інституту (KIT) загалом обережно ставиться до врахування “особистої відповідальності”: проблематично включати “особисту відповідальність” різних суб’єктів в алгоритм, “особливо, коли наслідки за неправильну поведінку можуть бути дуже серйозними”.
Автономне водіння: багато питань без відповідей
Ортвін Ренн, науковий директор Науково-дослідного інституту сталого розвитку (RIFS) у Потсдамі, також бачить відкриті питання. Наприклад, між п’ятьма критеріями можуть виникнути суперечності. “Уявіть собі, що зліва стоять двоє енергійних молодих людей, а справа – тендітна літня жінка. Якщо водій цілиться в літню жінку, він визнає, що в разі зіткнення вона отримає значно більше травм, ніж двоє чоловіків, тому другий критерій пріоритету для найбільш вразливої особи буде порушений. Водночас, це зменшило б загальний ризик, оскільки постраждала б одна людина замість двох. Таким чином, перший критерій буде виконано. Який з цих двох критеріїв має пріоритет?”
Мюнхенські дослідники знають про такі проблеми. Те, як саме ці питання мають бути зважені в кожному конкретному випадку, на їхню думку, має бути предметом суспільного обговорення. Такої ж позиції дотримується значна частина автомобільної промисловості. Вона виступає за широкий соціальний консенсус при розробці правил поведінки. Інші виробники вважають себе відповідальними за продукт. Третім актором може бути сам покупець, який здійснює вплив через свою купівельну поведінку. Також можна припустити, що клієнт може змінювати налаштування машини в певних межах.
Автомобілі приймають моральні рішення
Яким би не було майбутнє, очевидно, що машини можуть приймати моральні рішення вже сьогодні. Розглянемо, наприклад, системи камер з розпізнаванням зображень, які розрізняють людей і тварин. Поки що вони не ставлять свою стратегію водіння в залежність від того, хто з’являється перед капотом – технічно легко можна було б ухилитися від однієї живої істоти, але не від іншої. Перш ніж автомобілі-роботи зможуть масово заселити вулиці, необхідно з’ясувати кілька важливих питань. Зрозуміло, однак, що в окремих випадках не завжди можна знайти морально досконале рішення. Тому що штучний інтелект обмежений, і не тільки у версії мюнхенських дослідників:
“Ви повинні знати, що цей алгоритм – як і інші – може лише мінімізувати ризики, але не виключити їх”, – говорить Брандле, описуючи межі технології.
Сomments and feedback