Софистицираната вештачка интелигенција(ВИ) би можела да го направи светот подобар. Таа може да ни овозможи да се бориме против ракот и да ја подобриме здравствената заштита во целиот свет, или едноставно да не ослободиме од ситните задачи што доминираат во нашите животи. Еве што мислат петмина експерти, од најголемите компании во светот за можностите и заканите од ВИ.

Тие требале да одговорат на оваа прашање: „Кога ќе размислите што можеме да направиме, и што ќе можеме да направиме со ВИ, што беше најмногу вознемирувачко за вас?“

Џон Лангфорд: Главен истражувач во Мајкрософт

Мислам дека треба да внимаваме за беспилотни летала. Мислам дека автоматски беспилотни летала се потенцијално опасни на многу начини. Пресметката на беспилотното оружје не е доволно ефикасна за да направи нешто корисно во моментов. Но, за пет или десет години, можам да замислам дека беспилотно летало би можело да има доволно компјутерско одбројување што би можело да биде корисно. Можете да видите дека беспилотните летала веќе се користат во војна, но тие се сѐ уште контролирани од човекот. Нема причина зошто тие не можат да носат некој вид на систем за учење и да бидат разумно ефикасни. Значи тоа е нешто за што се грижам малку повеќе.

Хава Сигелман: Менаџерка за технологија на микросистеми во Дарпа

Секоја технологија може да се користи за лошо. Мислам дека тоа зависи од рацете на оние кои ја користат. Не мислам дека има лоша технологија, туку дека има лоши луѓе. Сѐ се сведува на тоа кој има пристап до технологијата и како ја користиме.

Иракли Бериџе: Шеф на Центарот за вештачка интелигенција и роботика во UNICRI, Обединети Нации

Мислам дека најопасната работа со ВИ е нејзиното темпо на развој. Во зависност од тоа колку брзо ќе се развие и колку брзо ќе можеме да се прилагодиме на тоа. И ако го изгубиме тој баланс, можеби ќе имаме проблеми.

За тероризам, криминал и други извори на ризик:

Мислам дека опасните апликации за ВИ, од моја гледна точка, ќе бидат криминалци или големи терористички организации кои ќе ја користат за да ги нарушат големите процеси или едноставно да направат чиста штета. [Терористите би можеле да предизвикаат штета] преку дигитална војна, или би можело да биде комбинација на роботики, беспилотни летала, со ВИ и други работи, кои би можеле да бидат навистина опасни.

И, се разбира, други ризици доаѓаат како на пример загуби на работа. Ако имаме голем број луѓе кои ги губат работните места и не наоѓаат решение, тоа ќе биде крајно опасно. Работите како смртоносни системи за автономни оружја треба правилно да се регулираат – инаку има голем потенцијал за злоупотреба.

Томас Миколов: Истражувачки научник за Фејсбук ВИ

Кога има многу интерес и финансирање околу нешто, има и луѓе кои го злоупотребуваат. Сметам дека е вознемирувачко што некои луѓе продаваат ВИ дури и пред да ја направат, и се преправаат дека знаат да ги решат проблемите.

Овие чудни стартапи исто така ветуваат работи кои се некои одлични примери за ВИ, кога нивните системи во основа се оптимизираат обична работа за која можеби никој не се грижел порано [како што е chatbot што е само малку подобар од последната верзија]. И откако ќе потрошите десетици илјади часа работа, со прекумерно оптимизирање на една вредност, некои од овие стартапи доаѓаат со овие големи тврдења дека тие постигнале нешто што никој претходно не можел да го стори.

Кенет Стенли: Професор на Универзитетот во Централна Флорида, научник и раководител на сектор во Убер ВИ лаборатории

Мислам дека најочигледна загриженост е кога ВИ се користи за да ги повреди луѓето. Постојат многу различни апликации каде што можете да замислите дека вакво нешто ќе се случи. Треба да бидеме навистина внимателни да не дозволиме таа лоша страна да излезе. Како да ја направиме ВИ одговорна е многу незгодно прашање; има многу повеќе димензии отколку само научни. Тоа значи дека целото општество треба да биде вклучено во одговорот на тоа прашање.

Сподели на Facebook
пати видено