Поддержать команду Зеркала
Беларусы на войне
  1. «Боюсь, он когда-то не выдержит». Беларуска рассказала, как ее брат, попавший в черные списки, не может устроиться на работу
  2. Могла уехать сама? Замешан ли КГБ? Спросили у коллег пропавшей спикерки КС, какие у них версии пропажи Анжелики Мельниковой
  3. Есть ли у вашей семьи Audi, Porsche или Mercedes? Нет? А деньги на такие авто из вашего кармана все равно «утекают» — поясняем, как так
  4. Новый поворот. Трамп еще больше поднял пошлины для Китая из-за «неуважения», но для других стран ввел отсрочку на три месяца
  5. «В последнее время стая „черных лебедей“». Эксперт пояснил, как торговая война Трампа с миром может затронуть рынок жилья Беларуси
  6. Эксперты рассказали о главной цели Путина в Украине, для достижения которой он готов вести войну годами
  7. «Такая была тьма над городом!» Рассказываем, как жители Западной Беларуси оценивали приход советской власти в 1939 году на самом деле
  8. Пропагандисты распространяют фейковые фото ведущей «Обычного утра» с Pornhub. Она им ответила
  9. Замминистра связи рассказала, почему в Беларуси не блокируют YouTube, и признала, что в нашем клоне «никто не хочет ничего размещать»
  10. Вольфовичу показали оружие, которое в российских военных пабликах называют «х*рней». В Беларуси им собираются прикрывать тероборону
  11. Обновление базы розыска РФ: теперь в ней более 4700 беларусов. Проверьте себя и близких
  12. СМИ: Силовики трясут агентства недвижимости по всей стране — что происходит
  13. Синоптики предупредили об опасности в четверг
  14. Что с деньгами, которые должен был получить фонд пропавшей Анжелики Мельниковой? Вот что узнало «Зеркало»
  15. Приходил КГБ. Узнали подробности рейда по агентствам недвижимости


/

Три четверти участников теста Тьюринга с чат-ботом ChatGPT-4.5 приняли искусственный интеллект за человека, сообщает Analytics India Magazine со ссылкой на исследование ученых из Калифорнийского университета в Сан-Диего. Внимание на публикацию обратил «Холод».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Авторы исследования предлагали испытуемым разные модели ИИ с минимальной либо расширенной инструкцией по поведению во время эксперимента. Минимальная инструкция лишь сообщала нейросети, что она будет участвовать в тесте Тьюринга, и передавала техническую информацию. Расширенная инструкция Persona содержала описание личности, за которую чат-бот должен себя выдавать, список актуальных новостей и подсказки о том, как ведут переписку обычные люди.

Участники эксперимента приняли ChatGPT-4.5 с инструкцией Persona за человека в 73 процентах случаев, а без дополнительных указаний чат-бот «побеждал» в два раза реже. Модель от компании Meta Llama 3.1‑405B с такой же инструкцией успешно выдала себя за человека в 56 процентах диалогов, а без нее — в 38 процентах.

В прошлом году исследователи из этого университета провели тест Тьюринга с ChatGPT-4, сравнив его с версией 3.5. Более новая модель тогда сумела обмануть испытуемых в 67 процентах диалогов, а версия 3.5 — лишь в половине случаев.

Британский математик Алан Тьюринг 75 лет назад предложил тест для определения, можно ли считать искусственный интеллект разумным. В исходной версии теста испытуемый должен одновременно общаться с компьютером и человеком, а после этого ответить, кто из собеседников — настоящий человек.