Падтрымаць каманду Люстэрка
Беларусы на вайне
  1. К проблемам с картофелем и луком добавились трудности с еще одним популярным товаром. Что случилось на этот раз
  2. В ISW пояснили, что может означать затягивание РФ переговоров с Украиной
  3. Синоптики объявили на понедельник неблагоприятное гидрометеорологическое явление. В чем причина
  4. Адно імгненне — і яны аказаліся ў смяротнай пастцы на дне мора. Гісторыя пра адну з самых жудасных смерцяў, якую можна сабе ўявіць
  5. Минчанка опубликовала в TikTok «крик души» о том, что у нее забирают детей по наводке школы. Власти прокомментировали
  6. Чиновников предупреждали — они создали ловушку из-за «уникальной операции» по ценам. Дружественные Минску эксперты подтвердили — рвануло
  7. Скрозь агідны лес смутку. Ліст каманды «Люстэрка» кіраўніцам TUT.BY Марыне Золатавай і Людміле Чэкінай
  8. Пресс-секретарь Путина рассказал, при каких условиях возможна его встреча с Зеленским
  9. Что остановило падение доллара ниже 3 рублей? Прогноз по валютам
  10. Президентские выборы в Польше: экзитполы показали, кто пройдет во второй тур. Но разрыв между противниками минимальный
  11. Силовики взялись «помогать» очередным крупным компаниям — с маски-шоу и задержаниями. Чем опасно такое поведение и почему терпит бизнес
  12. У Джо Байдена диагностировали агрессивную форму рака в поздней стадии
  13. На рынке труда усиливается проблема, которой недавно озадачился Лукашенко
  14. Победителем «Евровидения-2025» стал исполнитель Джей Джей из Австрии


/

Три четверти участников теста Тьюринга с чат-ботом ChatGPT-4.5 приняли искусственный интеллект за человека, сообщает Analytics India Magazine со ссылкой на исследование ученых из Калифорнийского университета в Сан-Диего. Внимание на публикацию обратил «Холод».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Авторы исследования предлагали испытуемым разные модели ИИ с минимальной либо расширенной инструкцией по поведению во время эксперимента. Минимальная инструкция лишь сообщала нейросети, что она будет участвовать в тесте Тьюринга, и передавала техническую информацию. Расширенная инструкция Persona содержала описание личности, за которую чат-бот должен себя выдавать, список актуальных новостей и подсказки о том, как ведут переписку обычные люди.

Участники эксперимента приняли ChatGPT-4.5 с инструкцией Persona за человека в 73 процентах случаев, а без дополнительных указаний чат-бот «побеждал» в два раза реже. Модель от компании Meta Llama 3.1‑405B с такой же инструкцией успешно выдала себя за человека в 56 процентах диалогов, а без нее — в 38 процентах.

В прошлом году исследователи из этого университета провели тест Тьюринга с ChatGPT-4, сравнив его с версией 3.5. Более новая модель тогда сумела обмануть испытуемых в 67 процентах диалогов, а версия 3.5 — лишь в половине случаев.

Британский математик Алан Тьюринг 75 лет назад предложил тест для определения, можно ли считать искусственный интеллект разумным. В исходной версии теста испытуемый должен одновременно общаться с компьютером и человеком, а после этого ответить, кто из собеседников — настоящий человек.