Изкуствен интелект и бъдещето на хората

(Saul Loeb / AFP / Getty Images)

Дигиталният живот увеличава човешкия капацитет и нарушава вековните човешки дейности. Системите, управлявани с код, са се разпространили в повече от половината от жителите на света чрез информация за околната среда и свързаност, предлагайки непредвидени преди това възможности и безпрецедентни заплахи. Тъй като нововъзникващият алгоритъм изкуствен интелект (AI) продължава да се разпространява, ще има ли по-добро състояние от хората днес?


Около 979 технологични пионери, иноватори, разработчици, бизнес и политически лидери, изследователи и активисти отговориха на този въпрос в обсъждане на експерти, проведено през лятото на 2018 г.

Експертите прогнозират, че мрежовият изкуствен интелект ще засили човешката ефективност, но също така ще застраши човешката автономия, агентура и възможности. Те говореха за широките възможности; че компютрите могат да съвпадат или дори да надхвърлят човешкия интелект и способности за задачи като сложно вземане на решения, разсъждения и обучение, усъвършенствана аналитика и разпознаване на образци, острота на зрението, разпознаване на речта и превод на език. Те казаха, че „интелигентните“ системи в общностите, в превозните средства, в сградите и комуналните услуги, във фермите и в бизнес процесите ще спестят време, пари и живот и ще предлагат възможности на хората да се радват на по-персонализирано бъдеще.


Мнозина съсредоточиха оптимистичните си забележки върху здравеопазването и многобройните възможни приложения на ИИ при диагностициране и лечение на пациенти или подпомагане на възрастните граждани да живеят по-пълноценно и по-здравословно. Те също бяха ентусиазирани от ролята на AI в допринасянето за широки програми за обществено здраве, изградени около огромни количества данни, които могат да бъдат събрани през следващите години за всичко, от лични геноми до хранене. Освен това редица от тези експерти прогнозираха, че ИИ ще въздейства на дългоочакваните промени в системите за формално и неформално образование.

И все пак повечето експерти, независимо дали са оптимисти или не, изразиха загриженост относно дългосрочното въздействие на тези нови инструменти върху основните елементи на това да бъдеш човек. Всички респонденти в това ненаучно изследване бяха помолени да уточнят защо смятат, че ИИ ще остави хората по-добре или не. Мнозина споделяха дълбоки притеснения, а много също предлагаха пътища към решения. Основните теми, които те прозвучаха относно заплахите и средствата за защита, са посочени в придружаващата таблица.

AI и бъдещето на хората: Експертите изразяват опасения и предлагат решения

ОТНОСЕНИЯ Човешка агенция:
Хората изпитват загуба на контрол над живота си
Вземането на решения по ключови аспекти на дигиталния живот автоматично се отстъпва на управлявани с код инструменти за „черна кутия“. Хората нямат принос и не научават контекста за това как работят инструментите. Те жертват независимостта, неприкосновеността на личния живот и властта над избора; те нямат контрол върху тези процеси. Този ефект ще се задълбочи, тъй като автоматизираните системи стават все по-разпространени и сложни.
Злоупотреба с данни:
Използването на данни и наблюдението в сложни системи е предназначено за печалба или за упражняване на власт
Повечето инструменти за изкуствен интелект са и ще бъдат в ръцете на компании, стремящи се към печалба, или правителства, стремящи се към власт. Ценностите и етиката често не са включени в дигиталните системи, вземащи решения на хората вместо тях. Тези системи са в глобална мрежа и не е лесно да се регулират или да се въздържат.
Загуба на работа:
Поемането на работни места с изкуствен интелект ще разшири икономическите разделения, което ще доведе до социални сътресения
Ефективността и другите икономически предимства на машинно разузнаване, базирано на код, ще продължат да нарушават всички аспекти на човешката работа. Докато някои очакват да се появят нови работни места, други се притесняват от огромни загуби на работни места, разширяване на икономическите разделения и социални сътресения, включително популистки въстания.
Заключване на зависимостта:
Намаляване на когнитивните, социалните умения и уменията за оцеляване на индивидите
Мнозина възприемат ИИ като увеличаване на човешкия капацитет, но някои предсказват обратното - че задълбочаващата се зависимост на хората от машинно задвижвани мрежи ще подкопае способностите им да мислят за себе си, да предприемат действия независимо от автоматизираните системи и да взаимодействат ефективно с другите.
Хаос:
Автономни оръжия, киберпрестъпления и оръжия
Някои прогнозират по-нататъшна ерозия на традиционните социално-политически структури и възможността за големи загуби на човешки живот поради ускорен растеж на автономните военни приложения и използването на оръжия на информация, лъжи и пропаганда за опасна дестабилизация на човешките групи. Някои също се страхуват, че киберпрестъпниците достигат до икономическите системи.
ПРЕДЛОЖЕНИ РЕШЕНИЯ Глобалното благо е номер 1:
Подобряване на трансграничното сътрудничество между хората и
групи от заинтересовани страни
Цифровото сътрудничество, за да служи на най-добрия интерес на човечеството, е най-важният приоритет. Трябва да се намерят начини хората по света да стигнат до общи разбирания и споразумения - да обединят усилията си, за да улеснят иновациите на широко приетите подходи, насочени към справяне с порочните проблеми и поддържане на контрола върху сложните човешки цифрови мрежи.
Базирана на ценности система:
Разработване на политики, които да гарантират, че ИИ ще бъде насочен към „човечността“ и общото благо
Приемете „самоуверен манталитет“, за да изградите приобщаващи, децентрализирани интелигентни цифрови мрежи, „пропити с емпатия“, които помагат на хората агресивно да гарантират, че технологиите отговарят на социалните и етични отговорности. Ще е необходимо някакво ново ниво на регулаторен и сертификационен процес.
Дайте приоритет на хората:
Промяна на икономическите и политическите системи, за да помогне на хората по-добре да се „състезават с роботите“
Реорганизирайте икономическите и политическите системи към целта да разширите капацитета и способностите на хората, за да засилите сътрудничеството между хората и изкуствения интелект и да укрепите тенденциите, които биха компрометирали човешката значимост в лицето на програмираното разузнаване.

PEW ИЗСЛЕДВАТЕЛСКИ ЦЕНТЪР И УНИВЕРСИТЕТЪТ ЕЛОН ИЗОБРАЗЯВА ИНТЕРНЕТ-ЦЕНТЪРА



По-конкретно, участниците бяха помолени да разгледат следното:


„Моля, помислете напреддо 2030 г. Анализаторите очакват, че хората ще станат още по-зависими от мрежовия изкуствен интелект (AI) в сложни цифрови системи. Някои казват, че ще продължим по историческата дъга на увеличаване на живота си с предимно положителни резултати, докато широко прилагаме тези мрежови инструменти. Някои казват, че нарастващата ни зависимост от тези AI и свързаните с тях системи вероятно ще доведе до широко разпространени трудности.

Нашият въпрос: До 2030 г., смятате ли, че най-вероятно е напредването на ИИ и свързаните с него технологични системи да подобри човешкия капацитет и да ги упълномощи? Тоест, през повечето време, повечето хора ще бъдат ли в по-добро състояние, отколкото са днес? Или най-вероятно е напредъкът на ИИ и свързаните с него технологични системи да намали човешката автономия и свобода на действие до такава степен, че повечето хора да не са в по-добро положение от днешните нещата “?


Като цяло, въпреки недостатъците, от които се страхуват,63%от респондентите в тази агитация заявиха, че се надяват, че повечето хора ще бъдат най-добре в състояние през 2030 г. и37%каза хората щенебъдете по-добре.

Редица мисловни лидери, участвали в това проучване, заявиха, че разширяващата се зависимост на хората от технологичните системи ще върви добре само ако се обърне голямо внимание на това как тези инструменти, платформи и мрежи са проектирани, разпределени и актуализирани. Някои от мощните, всеобхватни отговори включват тези от:

Соня Катиал, съдиректор на Центъра за право и технологии в Бъркли и член на учредителния съвет на съветника по цифрова икономика на американския търговски отдел, прогнозира: „През 2030 г. най-големият набор от въпроси ще включва как възприятията за ИИ и тяхното приложение ще повлияят на траектория на гражданските права в бъдеще. Въпросите относно неприкосновеността на личния живот, речта, правото на събрание и технологичното изграждане на личността ще се появят отново в този нов контекст на ИИ, поставяйки под въпрос нашите най-дълбоко утвърдени вярвания относно равенството и възможностите за всички. Кой ще се възползва и кой ще бъде в неравностойно положение в този нов свят зависи от това колко широко анализираме тези въпроси днес, за бъдещето “.

Трябва да работим агресивно, за да сме сигурни, че технологията отговаря на нашите ценности. Ерик Бриньолфсон


Ерик Бриньолфсон, директор на Инициативата за цифрова икономика на MIT и автор на „Машина, платформа, тълпа: Оползотворяване на нашето цифрово бъдеще“, каза, „AI и свързаните с него технологии вече са постигнали свръхчовешки резултати в много области и няма малко съмнение, че техните възможности ще се подобри, вероятно много значително, до 2030 г. ... Мисля, че е по-вероятно да използваме тази сила, за да направим света по-добър. Например, ние можем практически да премахнем глобалната бедност, да намалим масово болестите и да осигурим по-добро образование на почти всички на планетата. Въпреки това, AI и ML (машинно обучение) също могат да се използват за по-голямо концентриране на богатството и властта, оставяйки много хора зад себе си и за създаване на още по-ужасяващи оръжия. И двата изхода не са неизбежни, така че правилният въпрос не е „Какво ще се случи?“, А „Какво ще изберем да направим?“ Трябва да работим агресивно, за да сме сигурни, че технологията отговаря на нашите ценности. Това може и трябва да се направи на всички нива, от правителството, до бизнеса, до академичните среди и до индивидуалния избор “.

Брайън Джонсън, основател и главен изпълнителен директор на Kernel, водещ разработчик на усъвършенствани невронни интерфейси, и OS Fund, фирма за рисков капитал, каза: „Силно вярвам, че отговорът зависи от това дали можем да изместим нашите икономически системи към приоритет на радикалното човешко подобрение и задържане на тенденцията към човешка ирелевантност в лицето на ИИ. Нямам предвид само работни места; Искам да кажа истинска, екзистенциална ирелевантност, която е крайният резултат от неприоритизирането на човешкото благосъстояние и познание “.

Марина Горбис, изпълнителен директор на Института за бъдещето, каза, „Без значителни промени в нашата политическа икономия и режимите на управление на данните (ИИ) вероятно ще създаде по-големи икономически неравенства, повече наблюдение и по-програмирани и нечовекоцентрични взаимодействия. Всеки път, когато програмираме средата си, в крайна сметка програмираме себе си и взаимодействията си. Хората трябва да станат по-стандартизирани, премахвайки случайността и неяснотата от нашите взаимодействия. И тази неяснота и сложност е същността на това да бъдеш човек “.

Джудит Донат, автор на „The Social Machine, Designs for Living Online“ и преподавател в Центъра за интернет и общество „Berkman Klein“ от Харвардския университет, коментира: „До 2030 г. повечето социални ситуации ще бъдат улеснени от ботовете - интелигентни привидно програми, които взаимодействат с нас по човекоподобни начини. У дома родителите ще ангажират квалифицирани ботове, за да помогнат на децата с домашните и да катализират разговорите за вечеря. По време на работа ботовете ще провеждат срещи. Довереният бот ще се счита за съществен за психологическото благополучие и ние все по-често ще се обръщаме към такива спътници за съвет, вариращи от това какво да облечем за кого да се оженим. Ние, хората, се грижим дълбоко за това как другите ни виждат - а останалите, чието одобрение търсим, все повече ще бъдат изкуствени. Дотогава разликата между хората и ботовете ще се размие значително. Чрез екран и проекция гласът, външният вид и поведението на ботовете ще бъдат неразличими от тези на хората и дори физическите роботи, макар и очевидно нечовешки, ще бъдат толкова убедително искрени, че нашето впечатление за тях като мислещи, чувстващи същества, на равна нога със или превъзхождащи себе си, ще бъдем непоклатени. В допълнение към неяснотата, нашата собствена комуникация ще бъде силно подобрена: Програмите ще съставят много от нашите съобщения и нашият онлайн / AR външен вид ще бъде (изчислително) изработен. (Необработената, непомощна човешка реч и поведение ще изглежда неудобно тромава, бавна и неописуема.) Подпомогнати от достъпа си до огромни масиви от данни за всеки от нас, ботовете далеч надминават хората в способността им да ни привличат и убеждават. Способни да имитират експертно емоциите, те никога няма да бъдат преодолени от чувства: Ако изпуснат нещо от гняв, това ще бъде, защото това поведение беше изчислено като най-ефикасния начин за постигане на целите, които са имали „предвид“. Но какво тези цели ли са? Изкуствено интелигентните спътници ще възпитават впечатлението, че социалните цели, подобни на нашите, ги мотивират - да бъдат уважавани, независимо дали като любим приятел, възхитен шеф и др. Но истинското им сътрудничество ще бъде с хората и институциите, които ги контролират . Подобно на своите предци днес, това ще бъдат продавачи на стоки, които ги използват, за да стимулират потреблението, и политици, които ги поръчват да променят мненията си.

Андрю Маклафлин, изпълнителен директор на Центъра за иновативно мислене в Йейлския университет, по-рано заместник главен технологичен директор на САЩ за президента Барак Обама и ръководител на глобалната обществена политика за Google, написа: „2030 г. не е далеч в бъдещето. Моето усещане е, че иновации като интернет и мрежов ИИ имат огромни краткосрочни ползи, заедно с дългосрочни негативи, които могат да отнемат десетилетия, за да бъдат разпознати. AI ще стимулира широк спектър от оптимизации на ефективността, но също така ще позволи скрита дискриминация и произволно наказване на лица в области като застраховка, търсене на работа и оценка на резултатите “.

Майкъл М. Робъртс, първият президент и главен изпълнителен директор на Интернет корпорацията за присвоени имена и номера (ICANN) и член на Залата на славата на Интернет, написа: „Обхватът на възможностите за интелигентни агенти за увеличаване на човешкия интелект все още е практически неограничен. Основният проблем е, че колкото по-удобен е агентът, толкова повече той трябва да знае за вас - предпочитания, време, капацитет и т.н. - което създава компромис за повече помощ, изисква повече намеса. Това не е черно-бял въпрос - нюансите на сивото и свързаните с тях средства ще се спорят безкрайно. Досегашният запис е, че удобството преобладава поверителността. Подозирам, че това ще продължи “.

Дана Бойд, главен изследовател на Microsoft и основател и президент на Изследователския институт за данни и общество, каза: „AI е инструмент, който ще се използва от хората за всякакви цели, включително в преследването на властта. Ще има злоупотреби с власт, които включват ИИ, точно както ще има напредък в науката и хуманитарните усилия, които също включват ИИ. За съжаление има някои линии на тенденции, които вероятно ще създадат огромна нестабилност. Вземете например климатичните промени и климатичната миграция. Това допълнително ще дестабилизира Европа и САЩ и очаквам, че в паника ще видим, че ИИ се използва по вредни начини в светлината на други геополитически кризи “.

Ейми Уеб, основател на института „Бъдещето днес“ и професор по стратегическо прогнозиране в Нюйоркския университет, коментира: „Структурите на мрежата за социална сигурност, които в момента съществуват в САЩ и в много други страни по света, не са проектирани за нашия преход към AI. Преходът през AI ще продължи следващите 50 години или повече. С напредването на тази трета ера на изчислителната техника и с увеличаването на дълбочината на всяка една индустрия със системите за изкуствен интелект ще ни трябват нови хибридни квалифицирани работници, които могат да работят на работни места, които никога преди не са имали нужда. Ще ни трябват фермери, които знаят как да работят с големи масиви от данни. Онколози, обучени за роботизирани специалисти. Биолози, обучени за електроинженери. Няма да е необходимо да подготвяме работната си сила само веднъж, с няколко промени в учебната програма. Докато ИИ узрее, ще ни трябва отзивчива работна сила, способна да се адаптира към новите процеси, системи и инструменти на всеки няколко години. Необходимостта от тези области ще възникне по-бързо, отколкото признават нашите отдели по труда, училища и университети. Лесно е да погледнем назад към историята през обектива на настоящето - и да пренебрегнем социалните вълнения, причинени от широко разпространената технологична безработица. Трябва да се обърнем към трудна истина, която малцина са склонни да произнесат на глас: ИИ в крайна сметка ще доведе до това, че голям брой хора ще останат трайно без работа. Точно както поколения преди са били свидетели на радикални промени по време и след Индустриалната революция, бързият темп на технологиите вероятно ще означава, че Baby Boomers и най-старите членове на Gen X - особено тези, чиито работни места могат да бъдат възпроизведени от роботи - няма да бъдат в състояние да се преквалифицира за други видове работа без значителни инвестиции на време и усилия “.

Бари Чудаков, основател и ръководител на Sertain Research, коментира: „До 2030 г. сътрудничеството човек-машина / ИИ ще бъде необходим инструмент за управление и противодействие на ефектите от множество едновременни ускорения: широк технологичен напредък, глобализация, изменение на климата и съпътстващи глобални миграции. В миналото човешките общества успяваха да се променят чрез червата и интуицията, но както казва Ерик Телър, главен изпълнителен директор на Google X, „Нашите обществени структури не успяват да вървят в крак със скоростта на промяната“. управлява нарастващ списък с „порочни проблеми“ до 2030 г., AI - или използвайки фразата на Joi Ito, разширен интелект - ще оцени и преоцени почти всяка област от човешкото поведение и взаимодействие. ИИ и напредващите технологии ще променят нашата рамка за реакция и времеви рамки (което от своя страна променя нашето усещане за време). Когато някога се е случвало социално взаимодействие на места - работа, училище, църква, семейна среда - социалните взаимодействия все повече ще се случват в непрекъснато, едновременно време. Ако имаме късмет, ще следваме 23-те принципа на Asilomar AI, очертани от Института за бъдещето на живота, и ще работим за „не насочена интелигентност, а полезна интелигентност“. сила за морален ренесанс. Ние трябва да възприемем този морален ренесанс, или ще се сблъскаме с морални загадки, които биха могли да доведат до човешка смърт. ... Най-голямата ми надежда за сътрудничество човек-машина / изкуствен интелект представлява морално и етично възраждане - ние приемаме манталитет на луна и заключваме оръжията, за да се подготвим ускорения, идващи към нас. Най-големият ми страх е, че възприемаме логиката на нашите нововъзникващи технологии - незабавна реакция, изолация зад екрани, безкрайно сравняване на собствената стойност, фалшиво самопрезентация - без да мислим или да реагираме умно “.

Джон С. Хейвънс, изпълнителен директор на IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems и Съвета за разширено разузнаване, написа: „Сега, през 2018 г., по-голямата част от хората по света не могат да получат достъп до своите данни, така че всеки„ човешки AI дискусиите за увеличаване игнорират критичния контекст на това кой всъщност контролира информацията и идентичността на хората. Скоро ще бъде изключително трудно да се идентифицират автономни или интелигентни системи, чиито алгоритми не взаимодействат с човешки данни под една или друга форма “.

Заложено е не по-малко от това в какъв вид общество искаме да живеем и как преживяваме своята хуманност. Батя Фридман

Батя Фридман, професор по взаимодействие между човек и компютър в Информационното училище на Университета във Вашингтон, написа: „Нашият научен и технологичен капацитет е и ще продължи да надминава значително нашите морални - това е способността ни да използваме разумно и хуманно знанията и инструментите, които разработваме ... Автоматизираната война - когато автономните оръжия убиват човешки същества без човешка ангажираност - може да доведе до липса на отговорност за отнемане на живота на врага или дори до знание, че е отнет животът на врага. Заложено е не по-малко от това в какъв вид общество искаме да живеем и как преживяваме своята човечност “.

Грег Шанън, главен учен в отдел CERT в университета Карнеги Мелън, каза: „По-добро / лошо ще се появи 4: 1 с дългосрочно съотношение 2: 1. AI ще се справя добре с повтаряща се работа, където „наблизо“ ще бъде достатъчно добра и хората не харесват работата. ... Животът определено ще бъде по-добър, тъй като AI удължава живота, от здравни приложения, които интелигентно ни „тласкат“ до здраве, до предупреждения за предстоящо сърце / инсулт събития, до автоматизирани здравни грижи за недостатъчно обслужвани (отдалечени) и тези, които се нуждаят от разширени грижи (грижи за възрастни). Що се отнася до свободата, съществуват ясни рискове. AI засяга агенцията, като създава субекти със значими интелектуални възможности за наблюдение, налагане и дори наказване на лица. Тези, които знаят как да го използват, ще имат огромна потенциална власт над тези, които не / не могат. Бъдещото щастие наистина е неясно. Някои ще отстъпят агенцията си на изкуствен интелект в игри, работа и общност, подобно на агенцията за кражба на опиоиди днес. От друга страна, мнозина ще бъдат освободени от светски, неангажиращи задачи / работни места. Ако елементите на щастието в общността са част от обективните функции на ИИ, тогава ИИ може да катализира експлозия на щастието “.

Костас Александридис, автор на „Изследване на сложна динамика в базирани на много агенти интелигентни системи“, прогнозира „Много от ежедневните ни решения ще бъдат автоматизирани с минимална намеса от страна на крайния потребител. Автономията и / или независимостта ще бъдат жертвани и заменени с удобство. По-новите поколения граждани ще стават все по-зависими от мрежовите структури и процеси на ИИ. Има предизвикателства, на които трябва да се обърне внимание по отношение на критичното мислене и хетерогенността. Взаимозависимостта в мрежа, по-вероятно, отколкото не, ще увеличи нашата уязвимост към кибератаки. Съществува също така реална вероятност да има по-остри разделения между цифровите „имащи“ и „нямащите“, както и между технологично зависимите цифрови инфраструктури. И накрая, възниква въпросът за новите „командни висоти“ на собствеността и контрола на цифровата мрежова инфраструктура “.

Оскар Ганди, почетен професор по комуникация от университета в Пенсилвания, отговори: „Вече сме изправени пред недоволно предположение, когато ни се иска да си представим сътрудничеството между човек и машина.“ Взаимодействието е малко по-различно, но все още е опетнено от предоставянето на форма на идентичност - може би дори личност - към машини, които ще използваме, за да си проправим път през всякакви възможности и предизвикателства. Проблемите, с които ще се сблъскаме в бъдеще, са доста подобни на проблемите, с които се сблъскваме в момента, когато разчитаме на „другите“ (включително технологични системи, устройства и мрежи), за да придобием неща, които ценим, и да избягваме тези други неща (които бихме могли или бихме могли не знам за ').

Джеймс Скофийлд О’Рурк, професор по мениджмънт в Университета на Нотр Дам, каза: „През записаната история технологията е била до голяма степен неутрална концепция. Въпросът за неговата стойност винаги е зависел от приложението му. За каква цел ще бъдат използвани AI и други технологични постижения? Всичко, от барут до двигатели с вътрешно горене до ядрено делене, се прилага както по полезен, така и по разрушителен начин. Ако приемем, че можем да съдържаме или контролираме AI (а не обратното), отговорът дали ще ни е по-добре зависи изцяло от нас (или нашето потомство). ‘Вината, скъпи Брут, не е в нашите звезди, а в самите нас, че сме подчинени’. ’

Саймън Бигс, професор по интердисциплинарни изкуства в Университета в Единбург, каза: „AI ще функционира, за да увеличи човешките способности. Проблемът не е в ИИ, а в хората. Като вид сме агресивни, конкурентни и мързеливи. Ние също сме съпричастни, общностни и (понякога) саможертвени. Имаме много други атрибути. Всички те ще бъдат усилени. Като се има предвид историческият прецедент, трябва да се предположи, че най-лошите ни качества ще бъдат увеличени. Моите очаквания са, че през 2030 г. ИИ ще се използва рутинно за водене на войни и убиване на хора, много по-ефективно, отколкото можем да убиваме в момента. Като общества ще бъдем по-малко засегнати от това, каквото сме в момента, тъй като няма да се борим и да се самоубиваме. Капацитетът ни да модифицираме поведението си, подложен на съпричастност и свързана етична рамка, ще бъде намален от разединяването между нашата агенция и акта на убийство. Не можем да очакваме нашите системи за ИИ да бъдат етични от наше име - те няма да бъдат, тъй като ще бъдат проектирани да убиват ефективно, а не замислено. Другата ми основна грижа е свързана с наблюдението и контрола. Появата на китайската система за социални кредити (SCS) е индикатор за това, което вероятно ще дойде. Ще съществуваме в рамките на SCS, тъй като AI конструира хибридни екземпляри на себе си, които могат или не могат да приличат на това, което сме. Но нашите права и възможности като личности ще бъдат определени от SCS. Това е осъзнатият Оруелски кошмар “.

Марк Сурман, изпълнителен директор на Mozilla Foundation, отговори: „AI ще продължи да концентрира властта и богатството в ръцете на няколко големи монопола, базирани на САЩ и Китай. Повечето хора - и някои части на света - ще бъдат в по-лошо положение “.

Уилям Урикио, медиен учен и професор по сравнителни медийни изследвания в MIT, коментира: „AI и свързаните с него приложения се сблъскват с три проблема: развитие със скоростта на закона на Мур, развитие в ръцете на технологичен и икономически елит и развитие без полза от информиран или ангажирана общественост. Обществеността се свежда до колектив от потребители, които очакват следващата технология. Чия идея за „напредък“ ще надделее? Имаме достатъчно доказателства за това, че ИИ се използва за стимулиране на печалби, независимо от последиците за дългогодишни ценности; за засилване на държавния контрол и дори оценяване на „социалния кредит“ на гражданите без принос от самите граждани. Подобно на технологиите преди него, ИИ е агностик. Разполагането му е в ръцете на обществото. Но при липса на грамотна за ИИ публика, решението как най-добре да се внедри AI ще падне на специални интереси. Това ще означава ли справедливо разгръщане, облекчаване на социалната несправедливост и изкуствения интелект в публичната служба? Тъй като отговорът на този въпрос е по-скоро социален, отколкото технологичен, аз съм песимист. Поправката? Трябва да развием AI грамотна публика, което означава фокусирано внимание в образователния сектор и в обществените медии. Трябва да осигурим многообразие в развитието на технологиите за изкуствен интелект. И докато обществеността, нейните избрани представители и техните правни и регулаторни режими не могат да се ускорят с това бързо развиващо се развитие, ние трябва да проявяваме предпазливост и надзор в развитието на AI “.

Останалата част от този доклад е разделена на три раздела, които се основават на стотици допълнителни респонденти с надежда и критични наблюдения: 1) загриженост за развитието на човешкия ИИ, 2) предложени решения за справяне с въздействието на ИИ и 3) очаквания за това какъв ще бъде животът като през 2030 г., включително положителните възгледи на респондентите за качеството на живот и бъдещето на работата, здравеопазването и образованието. Някои отговори са леко редактирани за стил.