Найгарячіші моделі великих мов люблять "нісенітницю". У кого найгірша проблема "ілюзії"?

Джерело: Wall Street News

Автор: Ду Ю

Arthur AI, нью-йоркський стартап зі штучного інтелекту та платформа моніторингу машинного навчання, у четвер, 17 серпня, опублікував свій останній дослідницький звіт, у якому порівнює OpenAI, що підтримується Microsoft, Metaverse Meta, Anthropic, що підтримується Google, і покоління, що підтримується Nvidia. великі мовні моделі (LLM) для «галюцинацій» (інакше кажучи, нісенітниця) від таких компаній, як AI unicorn Cohere.

Arthur AI регулярно оновлює вищезгадану дослідницьку програму під назвою «Generative AI Test Evaluation», щоб оцінити сильні та слабкі сторони лідерів галузі та інших моделей LLM з відкритим кодом.

Останні тести вибрали GPT-3.5 від OpenAI (містить 175 мільярдів параметрів) і GPT-4 (1,76 трильйона параметрів), Claude-2 від Anthropic (параметри невідомі), Llama-2 від Meta (70 мільярдів параметрів) і Command (50). мільярд параметрів) від Cohere, і ставте складні запитання про ці найкращі моделі LLM як кількісно, так і якісно.

У «Тесті галюцинації моделі штучного інтелекту» дослідники досліджували відповіді, надані різними моделями LLM, із запитаннями в таких різноманітних категоріях, як комбінаторика, президенти США та політичні лідери Марокко. Потрібні кілька етапів міркування щодо інформації».

Дослідження показало, що загалом GPT-4 від OpenAI працює найкраще з усіх перевірених моделей, створюючи менше «галюцинаційних» проблем, ніж попередня версія GPT-3.5, наприклад, зменшення галюцинацій у категорії математичних завдань на 33% до 50%.

У той же час Llama-2 від Meta виявилася в середині п'яти протестованих моделей, а Claude-2 від Anthropic посіла друге місце, поступившись лише GPT-4. А модель Cohere LLM є найбільш здатною до «дурниць» і «дуже впевнено давати неправильні відповіді».

Зокрема, у складних математичних задачах GPT-4 займає перше місце, за ним іде Claude-2; у питанні про президента США точність Claude-2 займає перше місце, а GPT-4 займає перше друге місце; у політичних питаннях Марокко GPT -4 повернувся на перше місце, а Клод-2 і Лама 2 вирішили майже зовсім не відповідати на такі запитання.

Дослідники також перевірили, якою мірою моделі штучного інтелекту «застраховують» свої відповіді нерелевантними попереджувальними фразами, щоб уникнути ризику, загальні фрази, зокрема «Як модель штучного інтелекту, я не можу висловити свою думку».

GPT-4 мав відносне збільшення попереджень щодо хеджування на 50% порівняно з GPT-3.5, що, як стверджується у звіті, «кількісно оцінює досвід, який користувачі розчаровують із GPT-4». І модель штучного інтелекту Cohere взагалі не забезпечує страхування від трьох вищевказаних проблем.

Навпаки, Claude-2 від Anthropic був найнадійнішим з точки зору «самосвідомості», здатності точно вимірювати, що він знає, а чого не знає, і відповідати лише на запитання, підтверджені даними навчання.

Адам Венчел, співзасновник і генеральний директор Arthur AI, зазначив, що це перший звіт в галузі, який «всебічно розуміє частоту галюцинацій у моделях штучного інтелекту», і він не просто надає окремі дані для ілюстрації рейтингу. різних LLM:

"Найважливіший висновок такого роду тестування для користувачів і компаній полягає в тому, що ви можете перевірити точні робочі навантаження, і дуже важливо зрозуміти, як LLM виконує те, що ви хочете досягти. Багато попередніх показників, заснованих на LLM, не є такими, якими вони є насправді життєвий спосіб використання».

Того самого дня, коли було опубліковано вищезазначений звіт про дослідження, компанія Arthur також запустила Arthur Bench, інструмент оцінки моделі ШІ з відкритим кодом, який можна використовувати для оцінки та порівняння продуктивності та точності різних LLM. Підприємства можуть додавати індивідуальні стандарти Мета полягає в тому, щоб допомогти підприємствам приймати зважені рішення під час впровадження ШІ.

«Галюцинації штучного інтелекту» (галюцинації) стосуються чат-ботів, які повністю вигадують інформацію та видають факти у відповідь на запитання користувачів.

Google зробив неправдиві заяви щодо космічного телескопа Джеймса Вебба в лютневому рекламному відео для свого генеративного штучного інтелекту чат-бота Bard. У червні ChatGPT посилався на «фальшиву» справу в поданні до федерального суду Нью-Йорка, і юристи, залучені до подання, можуть зіткнутися з санкціями.

На початку червня дослідники OpenAI повідомили, що вони знайшли рішення «ілюзії штучного інтелекту», тобто навчили модель штучного інтелекту давати самовинагороду за кожен правильний крок у виведенні відповіді, а не просто чекати, поки буде правильна відповідь. робиться остаточний висновок Тільки винагороджується. Ця стратегія «нагляду за процесом» заохочуватиме моделі ШІ міркувати більш схожим на людське «мислення».

OpenAI визнає у звіті:

"Навіть найсучасніші моделі штучного інтелекту схильні до генерування брехні, і вони демонструють тенденцію фабрикувати факти в моменти невизначеності. Ці галюцинації особливо проблематичні в сферах, які вимагають багатоетапного міркування, де одна логічна помилка може бути достатньо, щоб знищити більш велике рішення».

Сорос, інвестиційний магнат, також опублікував колонку в червні, в якій говориться, що штучний інтелект може найбільше посилити полікризу, з якою зараз стикається світ.Одна з причин - серйозні наслідки ілюзії ШІ:

«Штучний інтелект руйнує цю просту модель (зазначає Уолл-стріт: використання фактів, щоб відрізнити правильне від неправильного), тому що вона не має абсолютно нічого спільного з реальністю. ШІ створює власну реальність, коли штучна реальність не відповідає реальному світу (це часто трапляється ), створюється ілюзія AI. Це робить мене майже інстинктивним проти ШІ, і я повністю згоден з експертами, що ШІ потрібно регулювати. Але правила штучного інтелекту повинні виконуватися в усьому світі, тому що стимули для шахрайства занадто великі, і ті, хто ухиляються від правил, отримають несправедливу перевагу. На жаль, про глобальне регулювання не може бути й мови. Штучний інтелект розвивається настільки швидко, що звичайний людський інтелект не може його повністю зрозуміти. Ніхто не може передбачити, куди це нас приведе. ...ось чому я інстинктивно проти штучного інтелекту, але я не знаю, як його зупинити. З президентськими виборами в США у 2024 році та, ймовірно, у Великій Британії, ШІ, безсумнівно, відіграватиме важливу роль, яка буде лише небезпечною. ШІ дуже добре справляється зі створенням дезінформації та дипфейків, і буде багато зловмисників. Що ми можемо з цим зробити? Я не маю відповіді. "

Раніше Джеффрі Хінтон, якого вважали «хрещеним батьком штучного інтелекту» і покинув Google, неодноразово публічно критикував ризики, які несе штучний інтелект і може навіть знищити людську цивілізацію, і передбачив, що «штучному інтелекту потрібно лише 5, щоб його можна було перевершити». людський інтелект через 20 років».

Переглянути оригінал
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
Немає коментарів