Създателят на SpaceX и Tesla Илон Мъск, съоснователят на Apple Стив Возняк и повече от хиляда други предприемачи призоваха за пауза в развитието на изкуствения интелект. Като причина за това те изтъкват "рискове за обществото".
Специалистите подписаха отворено писмо с искане всички лаборатории за изкуствен интелект незабавно да спрат за поне 6 месеца обучението на системи с изкуствен интелект, по-мощни от GPT-4. Те предлагат да се направи пауза в разработването им, докато не бъдат създадени общи протоколи за сигурност.
ChatGPT: Какво представлява и как работи?
Нестопанската организация Future of Life публикува пълния текст на писмото:
"AI системите с човешки и конкурентен интелект могат да представляват дълбоки рискове за обществото и човечеството, както е показано от обширни изследвания и признато от най-добрите лаборатории за AI. Както е посочено в широко одобрените Принципи за ИИ на Asilomar, усъвършенстваният ИИ може да представлява дълбока промяна в историята на живота на Земята и трябва да бъде планиран и управляван със съразмерна грижа и ресурси. За съжаление, това ниво на планиране и управление не се случва, въпреки че последните месеци станахме свидетели на AI лаборатории, заключени в извънконтролна надпревара за разработване и внедряване на все по-мощни дигитални умове, които никой - дори техните създатели, не могат да разберат, предвиждат или надеждно контролират.
Съвременните системи с изкуствен интелект сега стават конкурентни на хората при общи задачи и трябва да се запитаме: Трябва ли да позволим на машините да наводнят нашите информационни канали с пропаганда и неистина? Трябва ли да автоматизираме всички работни места, включително изпълняващите? Трябва ли да развием нечовешки умове, които в крайна сметка биха могли да ни превъзхождат числено, да ни надхитрят и да ни заменят? Трябва ли да рискуваме да загубим контрол над нашата цивилизация? Такива решения не трябва да се делегират на неизбрани технически лидери. Мощни AI системи трябва да бъдат разработени само след като сме уверени, че техните ефекти ще бъдат положителни и техните рискове ще бъдат управляеми. Тази увереност трябва да бъде добре оправдана и да нараства с големината на потенциалните ефекти на системата. Неотдавнашното изявление на OpenAI относно изкуствения общ интелект гласи, че „В даден момент може да е важно да получите независим преглед, преди да започнете да обучавате бъдещи системи, и за най-напредналите усилия да се съгласите да ограничите скоростта на растеж на изчисленията, използвани за създаване на нови модели." Ние сме съгласни. Тази точка е сега.
Затова призоваваме всички лаборатории за изкуствен интелект незабавно да спрат за поне 6 месеца обучението на системи с изкуствен интелект, по-мощни от GPT-4. Тази пауза трябва да бъде публична и да може да се провери и да включва всички ключови участници. Ако такава пауза не може да бъде въведена бързо, правителствата трябва да се намесят и да наложат мораториум.
Лабораториите за ИИ и независимите експерти трябва да използват тази пауза, за да разработят съвместно и внедрят набор от споделени протоколи за безопасност за усъвършенстван дизайн и разработка на ИИ, които са строго одитирани и наблюдавани от независими външни експерти. Тези протоколи трябва да гарантират, че системите, които се придържат към тях, са безопасни извън разумно съмнение. Това не означава пауза в развитието на ИИ като цяло, а просто отстъпление от опасната надпревара към все по-големи и непредсказуеми модели на черни кутии с нововъзникващи възможности.
Изследванията и развитието на ИИ трябва да бъдат пренасочени към превръщането на днешните мощни, най-съвременни системи в по-точни, безопасни, интерпретируеми, прозрачни, стабилни, подравнени, надеждни и лоялни.
Успоредно с това разработчиците на ИИ трябва да работят с политиците, за да ускорят драматично разработването на стабилни системи за управление на ИИ. Те трябва да включват най-малко: нови и способни регулаторни органи, посветени на ИИ; надзор и проследяване на високоспособни AI системи и големи пулове от изчислителни възможности; системи за произход и водни знаци, които помагат за разграничаване на истински от синтетични и за проследяване на изтичане на модели; стабилна екосистема за одитиране и сертифициране; отговорност за вреди, причинени от ИИ; стабилно публично финансиране за технически изследвания на безопасността на ИИ; и институции с добри ресурси за справяне с драматичните икономически и политически сътресения (особено за демокрацията), които AI ще причини.
Човечеството може да се радва на процъфтяващо бъдеще с AI. След като успяхме да създадем мощни AI системи, сега можем да се насладим на „AI лято“, в което берем наградите, проектираме тези системи за ясната полза за всички и даваме шанс на обществото да се адаптира. Обществото е поставило на пауза други технологии с потенциално катастрофални последици за обществото. Можем да го направим и тук. Нека се насладим на дълго AI лято, а не да бързаме неподготвени в есента".
Без ток, без газ: Свързани с Русия хакери са били близо да ударят важна инфраструктура в САЩ