Десетки високопоставени представители на бизнеса и политиката призовават световните лидери да се справят с екзистенциалните рискове, свързани с изкуствения интелект и климатичната криза.

Основателят на Virgin Group Ричард Брансън, заедно с бившия генерален секретар на ООН Бан Ки-мун и Чарлз Опенхаймер - внук на американския физик Дж. Робърт Опенхаймер, известен като „бащата на атомната бомба“, станаха поредните, след като подписаха отворено писмо, в което призовават за действия срещу ескалиращите опасности от климатичната криза, пандемиите, ядрените оръжия и неуправляемия изкуствен интелект.

В посланието се световните лидери са призовани да възприемат дългосрочна стратегия с "решимост да разрешават неразрешими проблеми, а не само да ги управляват, мъдрост да вземат решения, основани на научни доказателства, разум, и смирение да изслушват всички засегнати".

Отговорният изкуствен интелект - баланс между риска и иновациите Той е съобразена с ценностите на обществото както при разработването, така и при внедряването си


Подписалите се призовават за спешни многостранни действия, включително чрез финансиране на прехода от изкопаеми горива, подписване на справедлив договор за пандемиите, възобновяване на преговорите за ядрените оръжия и изграждане на глобално управление, необходимо за превръщането на изкуствения интелект в сила на доброто.

Писмото беше публикувано в четвъртък от The Elders - неправителствена организация, създадена от бившия южноафрикански президент Нелсън Мандела и Брансън, за да се занимава с глобалните проблеми на човешките права и да се застъпва за световния мир. То е подкрепено и от Future of Life Institute - организация с нестопанска цел, създадена от космолога от Масачузетския технологичен институт Макс Тегмарк и съоснователя на Skype Джаан Талин, която има за цел да насочи трансформиращите технологии като изкуствения интелект към ползи за хората и към избягване на мащабни рискове.

Тегмарк коментира, цитиран от CNBC, че "Старейшините" и неговата организация искат да покажат, че макар и сам по себе си да не е "зъл", AI остава "инструмент", който може да доведе до тежки последици, ако бъде оставен да се развива бързо в ръцете на неподходящи хора.

"Старата стратегия за постигане на добри приложения, когато става въпрос за нова технология, винаги е била да се учим от грешките", казва Тегмарк в интервю за медията. "Изобретихме огъня, а по-късно изобретихме пожарогасителя. Изобретихме автомобила, а след това се поучихме от грешките си и изобретихме предпазния колан, светофарите и ограниченията на скоростта."

Сам Алтман: Обществените разминавания могат да направят AI опасенТой допълни, че изкуственият интелект вероятно се развива по-бързо, отколкото светът очаква


Инженерна безопасност

"Но когато технологията премине първоначалните прагове и мощността ѝ нарасне, тази стратегия за учене от грешките се превръща в катастрофа, защото последствията могат да бъдат ужасни", добавя той. "Аз самият мисля за това като за инженерна безопасност. Изпратихме хора на Луната, но много внимателно обмислилхме всички неща, които могат да се объркат, преди това и затова в крайна сметка всичко мина добре. Това беше инженеринг на безопасността. И ние се нуждаем от този вид инженерна безопасност и за нашето бъдеще - с ядрените оръжия, със синтетичната биология, с все по-мощния изкуствен интелект."

Писмото беше публикувано преди Мюнхенската конференция по сигурността, на която държавни служители, военни лидери и дипломати ще обсъждат международната сигурност на фона на ескалиращите глобални въоръжени конфликти, включително войните между Русия и Украйна и Израел и „Хамас“.

В битка с машините: Кои са адвокатите, водещи човешката съпротива срещу AIЗаедно с колегата си Джоузеф Савери, Бътърик инициира първото съдебно дело срещу GitHub


Миналата година Future of Life Instituteс също публикува отворено писмо, подкрепено от водещи фигури, сред които шефът на Tesla Илон Мъск и съоснователят на Apple Стив Возняк, в което призовава лабораториите за изкуствен интелект като OpenAI да преустановят работата по обучението на големите езикови модели, които са по-мощни от GPT-4 - понастоящем най-напредналия изкуствен интелект на компанията на Сам Алтман.

Технологичните лидер призоваха за спиране на разработването на AI, за да се избегне "загуба на контрол", която може да доведе до масово унищожаване на работни места и овластяване на компютрите.