Компанията на Марк Зъкърбърг Meta придоби Moltbook, социалната мрежа, в която AI агенти вече взаимодействат помежду си автономно.

Тя стана тема на разговори в Силициевата долина миналия месец, след като само няколко дни след старта си набра милиони регистрирани ботове. Някои отчетоха това като огромен скок в технологиите, който демонстрира какво може да се случи, когато AI агентите общуват помежду си като хора.

Други заявиха, че мрежата е пълна с фалшиви агенти, рискове за сигурността и трябва да се разглежда скептично, съобщава CNN.

Екипът на Moltbook ще се присъедини към лабораториите за супер интелигентност на Meta, чийто представител заяви, че подходът „отваря нови начини за изкуствения интелект да работи за хората и бизнеса“.

Придобиването идва няколко седмици след като OpenAI нае основателя на технологията зад Moltbook, система за изкуствен интелект, наречена OpenClaw.

Изпълнителният директор на OpenAI, Сам Алтман, отхвърли ентусиазма около Moltbook, като заяви, че OpenClaw, който е модел с отворен код и захранва ботовете, е истинският пробив. Той допълни, че очаква технологията да се превърне в „основа“ на продуктите на OpenAI.

На този фон надзорният съвет на Meta заяви, че тя трябва да направи повече, за да се справи с „разпространението“ на фалшиво съдържание, създадено с инструменти за изкуствен интелект.

Съветът изрази загриженост, като упрекна компанията, че е оставила без етикет видеоклип, генериран от AI, в който се твърди, че иранските сили са нанесли значителни щети в Хайфа, Израел, допълва BBC.

Съветът призова компанията да преразгледа правилата си за AI, като предупреди, че увеличаването на фалшивите AI видеоклипове, свързани с глобални военни конфликти, „е поставило под въпрос способността на обществеността да разграничава измислицата от фактите... рискувайки да се стигне до общо недоверие към цялата информация“.

Meta заяви, че ще маркира въпросния видеоклип в рамките на седем дни.

Meta създаде Надзорния съвет през 2020 г. като полунезависима група за надзор върху решенията за модерация на съдържанието на своите платформи, които включват Facebook, Instagram и WhatsApp.

Той често не е съгласен с решенията на компанията, но въпреки това тя продължава да отслабва подхода си към контролирането на съдържанието, което повдига въпроси колко власт има съветът.

Според неговите представители начинът, по който компанията се е справила с видеото от Хайфа, е повдигнал въпроси относно „неефективността на настоящия подход на Meta по време на въоръжени конфликти“.

Понастоящем Meta разчита до голяма степен на потребителите да „разкриват сами“ кога публикуваното от тях съдържание е създадено с помощта на AI инструмент. В противен случай компанията очаква някой да подаде жалба до екипа за модерация на съдържанието, който може да реши да обозначи дадено съдържание.

Съветът заяви, че компанията трябва да маркира фалшивото AI съдържание „много по-често“ и настоящите методи „не са нито достатъчно стабилни, нито достатъчно изчерпателни, за да се справят с мащаба и скоростта на генерираното от AI съдържание, особено при криза или конфликт, когато има повишено участие в платформата“.