Земље на самиту у Великој Британији обећавају да ће се позабавити потенцијално „катастрофалним“ ризицима вештачке интелигенције

У говору у америчкој амбасади, Харис је рекао да свет треба да почне да делује сада како би се позабавио „пуном спектром“ ризика од вештачке интелигенције, а не само егзистенцијалним претњама као што су масивни сајбер напади или биолошко оружје које је формулисано вештачком интелигенцијом.

„Постоје додатне претње које такође захтевају нашу акцију, претње које тренутно наносе штету и многим људима се такође осећају егзистенцијално“, рекла је она, наводећи да је старији грађанин прекинуо свој план здравствене заштите због неисправног алгоритма вештачке интелигенције или жене којој прети насилни партнер са дубоким лажним фотографијама.

Самит о безбедности вештачке интелигенције је рад љубави за Сунака, бившег банкара који воли технологију и који жели да Уједињено Краљевство буде центар за рачунарске иновације и уоквирио је самит као почетак глобалног разговора о безбедном развоју вештачке интелигенције.

Харис би требало да присуствује самиту у четвртак, придруживши се владиним званичницима из више од двадесет земаља, укључујући Канаду, Француску, Немачку, Индију, Јапан, Саудијску Арабију и Кину, позване због протеста неких чланова Сунакове владајуће Конзервативне партије.

Добијање нација да потпишу споразум, назван Блетцхлеи декларација, било је достигнуће, чак и ако је мало детаља и не предлаже начин да се регулише развој вештачке интелигенције.Земље су се обавезале да ће радити на „заједничком договору и одговорности“ о ризицима од вештачке интелигенције и одржати низ даљих састанака.Јужна Кореја ће одржати мини виртуелни самит о вештачкој интелигенцији за шест месеци, након чега ће уследити лични у Француској за годину дана.

Кинески заменик министра науке и технологије Ву Зхаохуи рекао је да је технологија вештачке интелигенције „несигурна, необјашњива и недостаје јој транспарентност“.

„То доноси ризике и изазове у погледу етике, безбедности, приватности и правичности.Његова сложеност се појављује“, рекао је он, напомињући да је кинески председник Си Ђинпинг прошлог месеца покренуо Глобалну иницијативу земље за управљање вештачком интелигенцијом.

„Позивамо на глобалну сарадњу како бисмо поделили знање и учинили АИ технологије доступним јавности под условима отвореног кода“, рекао је он.

Извршни директор Тесле Елон Муск такође треба да разговара о АИ са Сунаком у разговору који ће бити емитован у четвртак увече.Технолошки милијардер био је међу онима који су раније ове године потписали изјаву којом су подигли узбуну о опасностима које АИ представља за човечанство.

Председница Европске комисије Урсула фон дер Лајен, генерални секретар Уједињених нација Антонио Гутереш и руководиоци америчких компанија за вештачку интелигенцију као што су Антхропиц, Гоогле-ов ДеепМинд и ОпенАИ и утицајни компјутерски научници као што је Јосхуа Бенгио, један од „кумова“ вештачке интелигенције, такође присуствују састанак у Блетцхлеи Парку, бившој строго поверљивој бази за разбијање шифри из Другог светског рата која се сматра родним местом модерног рачунарства.

Присутни су рекли да је формат састанка иза затворених врата подстицао здраву дебату.Неформалне сесије умрежавања помажу у изградњи поверења, рекао је Мустафа Сулејман, извршни директор Инфлецтион АИ.

У међувремену, на формалним дискусијама „људи су могли да дају врло јасне изјаве, и ту видите значајна неслагања, како између земаља севера тако и југа (и) земаља које су више за отворени извор, а мање за отворене извор“, рекао је Сулејман новинарима.

Системи вештачке интелигенције отвореног кода омогућавају истраживачима и стручњацима да брзо открију проблеме и реше их.Али лоша страна је у томе што када се систем отвореног кода објави, „свако га може користити и подесити у злонамерне сврхе“, рекао је Бенгио на маргинама састанка.

„Постоји та некомпатибилност између отвореног кода и безбедности.Па како да се носимо са тим?"

Само владе, а не компаније, могу заштитити људе од опасности од вештачке интелигенције, рекао је Сунак прошле недеље.Међутим, он је такође позвао да се не жури да се регулише АИ технологија, рекавши да то прво треба у потпуности разумети.

Насупрот томе, Харис је нагласио потребу да се позабавимо сада и овде, укључујући „друштвене штете које се већ дешавају, као што су пристрасност, дискриминација и ширење дезинформација“.

Она је указала на извршну наредбу председника Џоа Бајдена ове недеље, која поставља мере заштите од вештачке интелигенције, као доказ да САД воде пример у развоју правила за вештачку интелигенцију која раде у јавном интересу.

Харис је такође охрабрио друге земље да потпишу обећање које подржавају САД да ће се држати „одговорне и етичке“ употребе вештачке интелигенције у војне циљеве.

„Председник Бајден и ја верујемо да сви лидери … имају моралну, етичку и друштвену дужност да се постарају да вештачка интелигенција буде усвојена и унапређена на начин који штити јавност од потенцијалне штете и осигурава да сви могу да уживају у њеним предностима“, она рекао.


Време поста: 21.11.2023