Не е тайна, че чатботовете с изкуствен интелект, като ChatGPT на OpenAI, са твърде склонни да си измислят информация. Те са също толкова добри в измислянето на факти, колкото и в това да ви помагат в работата - и когато смесят двете неща, може да се стигне до катастрофа, съобщава "The Byte".
Още: Евелин Костова и Владимир Зомбори влизат в забавни роли във видео скеч в сервиза на Huawei
Още: Yettel спира да публикува в социалните си медии
Две лъжи и една истина
Въпросът дали хората, които разработват изкуствения интелект, могат да решат този проблем, остава предмет на дискусия. Някои експерти, включително мениджъри, които предлагат тези инструменти на пазара, твърдят, че тези чатботове са обречени вечно да съчиняват лъжи, въпреки всички усилия на създателите им.
"Не мисля, че днес има модел, който да не страда от някаква халюцинация", каза Даниела Амодей, съосновател и президент на Anthropic, създател на чатбота с изкуствен интелект Claude 2, имайки предвид генерирането на неточни текстове.
Още: А1 въвежда нови по-екологични и два пъти по-малки SIM карти
Още: Направи добър жест, а А1 ще го удвои
"Чатботовете наистина са създадени, за да предсказват следващата дума", добави тя. "И така, ще има някакъв процент възможност, в който моделът винаги ще върши тази задача неточно."
За още любопитни и полезни статии - очакваме ви във Viber канала ни! Последвайте ни тук!
Още: Върховният съд на САЩ се съгласи да разгледа делото за забрана на TikTok
А това не вещае нищо добро, като се има предвид, че технологичните компании са инвестирали много в технологиите. Например Google, която тайно предлага на големите вестници генератор на новини, базиран на изкуствен интелект. Други новинарски агенции вече експериментират с технологията, като създават съдържание, генерирано от изкуствен интелект, което често е изпълнено с неточности. С други думи, без възможността чатботовете да коригират лошата склонност да си измислят, компаниите може да се сблъскат с големи затруднения, докато проучват нови начини за използване на технологията.
"Това не може да се поправи", категорична е Емили Бендър, професор по лингвистика и директор на Лабораторията за компютърна лингвистика към Вашингтонския университет. "То е присъщо на несъответствието между технологията и предложените начини на употреба. Според Бендър само "по случайност, генерираният текст от ИИ текст, може да бъде интерпретиран като нещо, което ние хората считаме за правилно."
Технологичните лидери обаче са оптимистично настроени, което не е съвсем изненадващо, като се има предвид, че става въпрос за милиарди долари.
Още: А1 с променено работно време в празничните дни
Още: А1 добавя SPARK към портфолиото си от дигитални услуги Select
"Мисля, че ще успеем да намерим решение на проблема", заяви главният изпълнителен директор на OpenAI Сам Алтман пред аудитория в Индия по-рано тази година. "Смятам, че това ще ни отнеме година и половина, две години. Нещо такова."
Компании като OpenAI и Anthropic сега са въвлечени в трудна битка. Ако има нещо сигурно, то е, че да накараме чатботовете да казват истината по надежден начин ще бъде всичко друго, но не и лесно, ако изобщо е възможно.
ОЩЕ: МУЗИКАУТОР се присъедини към международен апел за защита на авторските права от изкуствения интелект