Разни

Нашият смел нов свят: Защо напредъкът на ИИ поражда етични опасения

Нашият смел нов свят: Защо напредъкът на ИИ поражда етични опасения


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Почти всеки ден чуваме за нов напредък в ИИ, който дава възможност за нови начини за наблюдение на дейностите и хората, трансформиране на много процеси в ежедневния ни живот.

СВЪРЗАНИ: БЕНТАМ, ХОБИ И ЕТИКАТА НА ИЗКУСТВЕН ИНТЕЛЕКТ

Това, което можем да чуем през ден, е как ИИ може да изостри расовите и половите пристрастия и да представлява заплаха за неприкосновеността на личния живот, сигурността на работното място и икономическото благосъстояние. Възможно е дори да предизвика война според Илън Мъск.

Разпознаването на лица с изкуствен интелект поражда опасения относно поверителността и пристрастията

Както е обяснено в „Проблеми за разпознаване на лица: Шестте етични принципа на Microsoft“, „Широкото използване на технологията за разпознаване на лица, задвижвана от изкуствен интелект, може да доведе до някои нови намеси в неприкосновеността на личния живот на хората“.

Като се има предвид способността да улови образа на хората и да ги идентифицира на обществените улици в името на сигурността, хората с право се притесняват, че ще загубят способността си да поддържат каквото и да е поверителност. Това се разпростира върху средите в училище и на работното място, както е подробно описано в статията.

A 2018 Ню Йорк Таймс статия повдигна още една загриженост със заглавието „Разпознаването на лицето е точно, ако си бял човек“. Проблемът е следният:

"Колкото по-тъмна е кожата, толкова повече грешки възникват - до близо 35 процента за изображения на по-тъмнокожи жени, според ново проучване, което пробива нова земя, като измерва как технологията работи върху хора от различни раси и пол."

Източникът на тези цифри е Джой Буоламвини, изследовател в MIT Media Lab и основател на Алгоритмичната лига на справедливостта (AJL). Тя се е посветила да разкрие как пристрастията се просмукват в ИИ и така изкривяват резултатите за разпознаване на лицето.

Вижте нейния TED Talk в това видео:

Тази година Buolamnwini публикува резултатите от своето изследване с Inioluwa Deborah Raji от Университета в Торонто, в Actionable Auditing: Investigating the Effect of Publicly Iaming Biased Performance Results of Commercial AI Products.

Според това проучване софтуерът за повторно запалване на Amazon също е объркал онези, които попадат от категорията на белите мъже. Според изследването жените са идентифицирани погрешно като мъже почти всеки пети път. В допълнение, тя неправилно идентифицира тъмнокожите жени като мъже в 31 процента от случаите, се казва.

Buolamnwini написа среден пост, в който се позова на своите изследвания и че 26 изследователи настояват Amazon да спре продажбата на Rekogmination. ACLU също засили натиска, призовавайки акционерите на Amazon да поискат премахването на технологията за разпознаване на лица.

Налягането има някои измерими резултати. Сан Франциско наскоро гласува да го забрани от арсенала от технологични инструменти, използвани от правоприлагащите органи.

Загриженост относно проблема с пристрастията на AI

Други също така посочиха потенциала за пристрастност към раса, засилена от AI, най-вече Кати О'Нийл в Weapons of Math Destruction: How Big Data увеличава неравенството и заплашва демокрацията. които засилват бариерите, като държат определени демографски групи в неравностойно положение, като ги определят като по-малко достойни за кредит, образование, възможности за работа, условно освобождаване и т.н. "

Вижте нейния TED Talk тук:

Независимо дали проблемът произтича от недостатъци в събраните данни или в алгоритмите, създадени за анализ на данните, хората вече не са доволни да се доверят на AI като обективен и всезнаещ. Сега те изискват обясним ИИ, който въвежда прозрачност в процеса и позволява да бъдат разкрити и отстранени пристрастия и други недостатъци.

„Това, което е жизненоважно, е да се направи нещо за ИИ обяснимо, справедливо, сигурно и с произход, което означава, че всеки може да види много просто да види как се е развило всяко приложение на ИИ и защо, заяви Джини Ромети, главен изпълнителен директор на IBM, по време на основния си реч на CES на 9 януари 2019 г. IBM вече предлага консултации за намаляване на пристрастията за тези, които изграждат системи за машинно обучение.

Можете да гледате пълния адрес тук:

Етични опасения относно ИИ като екзистенциална заплаха

„AI е основен риск за съществуването на човешката цивилизация“, заяви Илон Мъск през 2017 г. по време на интервю пред аудитория на лятната среща на Националната асоциация на гуверньорите. Можете да го видите изцяло в това видео:

Ако предпочитате много по-кратък запис, можете да видите това видео:

Не чужд на напредналите технологии, Мъск спореше от позицията на човек, който разбира както възможностите, така и последиците от ИИ. Ето защо той твърди, че разпоредбите трябва да бъдат въведени сега, а не след напредъка на технологиите и вече представляват опасност.

За разлика от отрицателните резултати, които биха могли да бъдат резултат от други технологии в миналото, той каза, че са били ограничени „до отделни индивиди“ и не засягат „обществото като цяло“, каза Мъск. ИИ обаче представлява „основен, екзистенциален риск“.

За Мъск този риск включва започване на война. Той посочи „чисто хипотетичен“ пример, че е възможно ИИ да бъде поставен с „цел да максимизира стойността на портфейл от акции“, който е „дълго в защита“ и че ще направи всичко необходимо, за да постигне своя край, включително привеждане в действие за подбуждане на война.

С по-малко катастрофална нота, Мъск също призна, че AI заплашва работните места. Но за някои това е истинската катастрофа, за която трябва да се притесняваме.

Етични опасения относно изкуствения интелект и работните места

През юли 2017 г. Wall Street Journal стрпубликува статията, Роботите заместват работниците, където пазарувате. В него са описани някои от технологиите, които вече заместват човешките служители в магазините на Walmart.

The Вестник в статията беше представена и таблица от Citi Research за заплахата за работни места от автоматизацията до 2030 г. Очакваните отрасли, които се очаква да излязат с най-малко щети, включват застраховане и финанси, с висок риск от 54%.

Услугите за настаняване и храна не са толкова добри, с висок риск от 86 процента. Това би довело до огромен брой хора, освободени от работата си, което няма да се окаже вредно само за лицата, които губят своята, но и за цялостната икономика.

В интервю за VIAnews Антъни Задор, председател на неврологията и професор по биология в лабораторията Cold Spring Harbor, предупреди, че някои от „последиците за обществото в много отношения ще бъдат опустошителни“.

Това се дължи главно на факта, че ще видим как „десетки милиони работни места“ изчезват, без да са сигурни „с какво ще бъдат заменени, ако ще бъдат заменени с нещо“.

Той побърза да добави, че вината тук е в „обществото; това не е вина на технологията. " Независимо кой е виновен, щетите изглеждат неизбежни.


Гледай видеото: Master of Disguise - Hrithik Makeup Sessions. Dhoom:2. Hrithik Roshan (Юни 2022).


Коментари:

  1. Wellington

    Вашата фраза е великолепна

  2. Cerdic

    Wonderful, this is a very valuable answer



Напишете съобщение