Интересно

Програмираме ли коли-убийци? Етиката на автономните превозни средства

Програмираме ли коли-убийци? Етиката на автономните превозни средства


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

През последните няколко години все повече автономни функции са вградени в автомобилите. И само преди няколко месеца Tesla пусна следващото видео, в което се похвали, че е постигнал „Пълно самоуправление“.

В статия от Techopedia се съобщава, че дори по-ранните автомобили на Tesla съдържат „необходимия хардуер за автономно шофиране“, въпреки че активирането на способността зависи от актуализацията на софтуера. Статията също така предвижда разликата между начина, по който автономните автомобили, произведени днес, ще се различава от тези в бъдеще.

В момента автомобилите Tesla са оборудвани с необходимия хардуер за автономно шофиране, но са необходими актуализации на софтуера, за да се активира напълно функцията. Въпреки че ще позволи напълно автономно шофиране, той също така ще позволи на човешкия шофьор да поеме контрола, когато ситуацията изисква намеса.

Следващото поколение автономни превозни средства обаче няма да се нуждае от волани, педали или трансмисии. Предимството на такива автомобили е възможността за намаляване на произшествията и осигуряване на необходимия транспорт за хора, които не са способни да шофират като възрастни хора или такива със зрителни или физически увреждания.

Но има и потенциален недостатък: необходимостта човешката агенция, която създава програмирането на автомобила, да предвижда всички възможни сценарии и да насочва колата да взема такива преценки, каквито хората трябва, когато сценарият призовава за действие, което неизбежно ще доведе до някои форма на вреда.

Въпреки че Tesla може да е най-известното име на AI отпред за превозни средства, то със сигурност не е единственият играч на този нарастващ пазар. Някои далеч по-почтени имена в бранша също се включиха в играта.

СВЪРЗАНИ: ИНТЕРЕСНАТА ИСТОРИЯ НА ЕЛЕКТРИЧЕСКИТЕ АВТОМОБИЛИ

Бърнард Мар наскоро писа за инвестицията на Toyota за милиарди долари в самоуправляващи се автомобили и AI. Компанията си е поставила цели, които иска да постигне до 2020 г .:

„Чрез инвестициите на Toyota в технологични стартиращи компании като Perceptive Automata се надява да създаде технологията, която да позволи на автономните превозни средства да имат по-човешка интуиция, когато са на път, по-подобно на това как човешките шофьори взаимодействат с пешеходците.“

Рекорд за безопасност при самоуправление

Разбира се, все още не сме там. Но въпросът е дали това е крайната цел и дали това е нещо, което трябва да преследваме без пълни съображения за последиците от напълно независим автомобил.

Всяка единична катастрофа със самоуправляваща се кола и списъци със смъртни случаи девет катастрофи, включващи автономни превозни средства, само четири от които са причинили смъртни случаи. Въпреки твърденията от заглавието обаче, списъкът е непълен, тъй като е имало смъртни случаи от такива произшествия след публикуването на статията.

Последният смъртен случай, за който съобщава, е този, който включва Tesla Model X на 23 март 2018 г. Шофьорът на колата е починал, когато се е ударил в магистрална бариера. Тесла обвинява това за намесата на бариерата в системата за автономно управление на превозното средство:

"Причината тази катастрофа да е толкова тежка е, че атенюаторът на катастрофата, бариера за безопасност на магистралата, която е проектирана да намали удара в бетонен разделител на лентата, е бил смазан при предишен инцидент, без да бъде заменен", се казва в изявлението на Tesla.

Компанията добави: "Никога не сме виждали това ниво на щети на Model X при каквато и да е друга катастрофа."

За съжаление обаче това не беше краят на фаталните катастрофи за самоуправляващите се автомобили на Tesla. Редица от тях се случиха тази година.

Сред инцидентите е един на 1 март 2019 г. Потвърдено е от Националния съвет за безопасност на транспорта в САЩ (NTSB), че полуавтономният софтуер за автопилот е бил ангажиран на Tesla Model 3, когато е бил забит в ремарке на трактор, опитвайки се да прекоси Флорида магистрала и шофьорът на колата е убит.

Въпреки че те все още са сравнително редки, в сравнение с автомобилните инциденти, причинени от човешки шофьори, фактът, че има инциденти и смъртни случаи, причинени от самоуправляващи се автомобили, кара хората да се притесняват за тяхната безопасност и програмиране. Всъщност тази година Quartz хвърли малко съмнение относно претенциите за безопасност на Tesla.

Подобно на тази катастрофа на Тесла, повечето автономни автомобилни катастрофи водят до смъртта на човека, седнал на шофьорската седалка. Има обаче случаи на хора извън колата, удряни и убити от автономни автомобили.

Най-скандалният инцидент от този род може да бъде този, свързан с Uber в смъртта на Елейн Херцберг през март 2018 г. 49-годишната жена вървяла и бутала велосипеда си през авеню Мил в Темпе, Аризона, когато колата на Uber я ударила.

Можете да видите видеото на инцидента, пуснато от полицията тук:

В резултат на това Uber прие политика за осигуряване на включване на човешки шофьори в автомобилите си. Историята беше докладвана тук: Uber връща самоуправляващите се автомобили на работа, но с човешки шофьори.

Това е начин Uber да заобиколи проблема, с който ще трябва да се сблъскаме, ако и когато напълно автономните автомобили се превърнат в норма: как да ги програмираме да включат инстинкта за запазване на човешкия живот.

Програмиране на AI с грижа за етиката

Както видяхме в друга статия, „Нашият смел нов свят: Защо напредъкът на ИИ поражда етични опасения, с голямата сила на ИИ идва голяма отговорност, за да се установи, че технологията в крайна сметка не влошава ситуациите в името на прогреса. Изследването на етиката за ИИ привлече вниманието на хората, които мислят какво трябва да се направи, преди да се внедрят автоматизирани решения.

Един от тези хора е д-р Пол Тагард, канадски философ и когнитивен учен, повдигна някои от проблемите, с които сега трябва да се сблъскаме по отношение на програмирането на етиката в AI в „Как да изградим етичен изкуствен интелект“.

Той повдига следните 3 препятствия:

  1. Етичните теории са силно противоречиви. Някои хора предпочитат етичните принципи, установени от религиозни текстове като Библията или Корана. Философите спорят за това дали етиката трябва да се основава на права и задължения, на най-доброто благо за най-голям брой хора или да действа добродетелно.
  2. Етичните действия изискват задоволяване на морални ценности, но няма съгласие кои ценности са подходящи или дори какви ценности са. Без отчитане на подходящите ценности, които хората използват, когато действат етично, е невъзможно да се приведат в съответствие стойностите на системите за ИИ с тези на хората.
  3. За да се изгради система за изкуствен интелект, която се държи етично, идеите за ценностите и правилното и грешното трябва да бъдат достатъчно точни, за да могат да бъдат внедрени в алгоритми, но в настоящите етични обсъждания липсва точност и алгоритми.

Thagard предлага подход за преодоляване на тези предизвикателства, казва той и се позовава на своята книга, Естествена философия: от социалните мозъци до знанието, реалността, морала и красотата. В хода на статията обаче той не предлага решение, което конкретно да се занимава с програмирането на самоуправляващите се автомобили.

Самоуправляващи се автомобили и проблемът с количката

В идеалния случай водачите избягват да удрят каквото и да било. Но е възможно да попаднете в ситуация, в която е невъзможно да се избегне сблъсък и единственият избор е кой човек или хора да удари.

Тази етична дилема е това, което е известно като Проблем с тролеите, който, подобно на самата количка, се връща в продължение на повече от век. Обикновено се представя по следния начин:

Виждате избягала количка, която се движи към петима обвързани (или по друг начин недееспособни) хора, лежащи на коловозите. Заставате до лост, който управлява превключвател. Ако дръпнете лоста, количката ще бъде пренасочена към странична коловоза и петимата души на главната писта ще бъдат запазени. Има обаче един човек, който лежи на страничната писта.

Имате две възможности:

  1. Не правете нищо и позволете на количката да убие петимата души на главната писта;
  2. Издърпайте лоста, като пренасочвате количката към страничната пътека, където ще убие един човек.

Разбира се, тук няма наистина добър избор. Въпросът е кой е по-малкият от двата лоши варианта. Точно този вид дилема представи Зеленият таласъм на Спайдърмен във филма от 2002 г., опитвайки се да го принуди да избира между спасяването на лифт, пълен с деца, или жената, която обича:

Като супергерой, Спайдърмен успя да използва своите способности и сила за въртене в мрежата, за да спаси и двете. Но понякога дори супергероите трябва да направят трагичен избор, какъвто беше случаят във филма от 2008 г.Черният рицар в който изборът на Батман беше да остави жената, която обичаше, в експлодиралата сграда.

Така че дори тези, които имат превъзходни способности, не винаги могат да спасят всички и една и съща ситуация може да се отнася за автомобили с активиран интелект.

Тогава въпросът е: Кой етичен кодекс прилагаме, за да ги програмираме да правят такъв избор?

Какво трябва да прави самоуправляващата се кола?

MIT Technology Review насочи вниманието към някои изследователи, работещи по формулирането на отговорите преди няколко години в „Как да помогнем на самоуправляващите се автомобили да вземат етични решения“. Сред изследователите в тази област е Крис Гердес, професор от Станфордския университет, който проучва "етичните дилеми, които могат да възникнат, когато самоуправлението на превозното средство бъде внедрено в реалния свят".

Той предложи по-опростен избор: този да се справи с дете, което изтича на улицата, което принуждава колата да удари нещо, но му позволява да избира между детето и микробуса на пътя. За човек, който не бива да мисли, че защитата на детето е по-важна от защитата на микробуса или самата автономна кола.

Но какво би си помислил ИИ? А какво да кажем за пътниците в превозното средство, които в крайна сметка могат да получат някои наранявания от такъв сблъсък?

Гердес отбеляза: "Това са много тежки решения, с които всеки ден се сблъскват онези, които проектират алгоритми за управление на автоматизирани превозни средства."

Статията цитира и Адриано Алесандрини, изследовател, работещ върху автоматизирани превозни средства от Университета на Рома Ла Сапиенца, Италия, който е ръководил италианската част от европейския проект CityMobil2 за тестване на автоматизирано транзитно превозно средство. Вижте видеото за него по-долу:

Тя капсулира проблема с количката за шофьори и самоуправляващи се автомобили в това обобщение:

„Може да видите нещо по пътя си и да решите да смените лентата и, както правите, нещо друго е в тази лента. Така че това е етична дилема. "

Друг изтъкнат експерт в тази област е Патрик Лин, професор по философия в Cal Poly, с който е работил Гердес. TED-Ed на Лин поема етичните проблеми при програмирането на самоуправляващи се автомобили за вземане на решения за живот или смърт, е представен като мисловен експеримент в това видео:

Ако карахме този бокс в колата в ръчен режим, по какъвто и начин да реагираме, ще се разбере само като това, реакция, а не умишлено решение ", казва Лин във видеото. Съответно, ще се разбира като" инстинктивен панически ход без никакво предумишление или злоба. "

Съвсем реалната възможност за смъртни случаи, настъпили в резултат не на неизправност, а в резултат на автомобилите, следващи тяхното програмиране, е това, което прави толкова важно да се мисли предварително как да се справим с това, което Лин описва като „сортиращ алгоритъм от някакъв вид“.

Той обяснява, че подобни програми биха били „систематично фаворизиране или дискриминация на определен тип обект, в който да се сринат“.

В резултат на това хората в „целевите превозни средства ще понесат негативните последици от този алгоритъм не по своя вина“.

Той не предлага решение на този проблем, но е предупреждение, че трябва да помислим как ще се справим с него:

„Откриването на тези морални завои сега ще ни помогне да маневрираме по непознатия път на технологичната етика и ще ни позволи да плаваме уверено и добросъвестно в нашето смело ново бъдеще.“

Това вероятно ще се окаже още по-голямо предизвикателство за навигация от пътищата, по които автономните превозни средства трябва да се движат.


Гледай видеото: Когда-нибудь наступит завтра 2021. 1 серия. Детектив, мелодрама, сериал. (Може 2022).


Коментари:

  1. Kontar

    Присъединявам се. Случва се. Нека обсъдим този въпрос.

  2. Rohan

    Губене на отпадъци, като видях оценен

  3. Rosco

    Извинявам се, но според мен не си прав. Нека обсъдим. Пишете ми в PM.



Напишете съобщение