Интересная особенность современных моделей искусственного интеллекта, в частности, больших языковых моделей (LLM): они могут выводить текст только на основе того, что содержится в их обучающем наборе данных. Модели, включая ChatGPT и Claude, “обучаются” на больших текстовых базах данных. Модели, когда им задают вопрос, статистически формируют ответ, вычисляя по одному слову за раз, каким должно быть наиболее вероятное следующее слово. Следствием этого является то, что LLM не могут выводить тексты о научных открытиях, которые еще не произошли, потому что об этих открытиях нет соответствующей литературы. Лучшее, что может сделать ИИ, — это повторить предсказания, написанные исследователями, или синтезировать эти предсказания.

Адам Мастроянни, пишущий в своем информационном бюллетене Experimental History, изящно сформулировал это: “Если бы вы загрузили сверхумный искусственный интеллект в Древней Греции, снабдили его всеми человеческими знаниями и спросили, как приземлиться на Луну, он бы ответил: «Вы не можете приземлиться на Луну. Луна — это бог, парящий в небе”.

View_of_Whitehall_from_Trafalgar_Square_which_is_blurred_with_pedestrian_and_carriage_traffic__London__1839

Это интересный мысленный эксперимент. Что, если бы вы намеренно ограничили количество обучающих данных? Могли бы вы создать систему искусственного интеллекта, которая реагирует так, как будто это из прошлого?  Что это может рассказать о психологии или повседневном опыте людей той эпохи?

Именно это имел в виду Айк Григорян, студент колледжа Мюленберг в Аллентауне, штат Пенсильвания, когда создавал TimeCapsuleLLM. Эта экспериментальная система искусственного интеллекта была полностью обучена на текстах из Лондона 19-го века. Текущая версия основана на 90 гигабайтах текстовых файлов, первоначально опубликованных в Лондонском сити в период с 1800 по 1875 год.

Это, безусловно, проект для хобби. Сгенерированный по образцу текст на GitHub не всегда последователен, хотя Ars Technica сообщила, что в нем правильно указаны имена и события 1800-х годов. Когда ее попросили продолжить фразу “Это был 1834 год от Рождества Христова”, модель рассказала о протесте: “улицы Лондона были заполнены протестами и петициями”, — и упомянула политику лорда Пальмерстона, который в то время был министром иностранных дел.

Это интересный эксперимент, но может ли такая вещь быть полезной на самом деле? Потенциально.
Интересно прочитать статью, опубликованную в журнале Proceedings of the National Academy of Sciences of United States of America (PNAS) сотрудниками, в том числе Майклом Э. В. Варнумом, профессором психологии с факультета психологии Университета штата Аризона. В нем предполагается, что подобные модели могут стать способом изучения психологии вне современного контекста. В статье такие модели искусственного интеллекта называются историческими моделями большого языка, или сокращенно HLLMS, и утверждается, что исследователи-психологи могли бы использовать их для изучения мышления людей в прошлых цивилизациях.

“В принципе, ответы этих фальшивых личностей могут отражать психологию обществ прошлого, что позволяет создать более надежную и междисциплинарную науку о природе человека”, — говорится в статье. “Исследователи могли бы, например, сравнить склонность викингов, древних римлян и японцев раннего нового времени к сотрудничеству в экономических играх. Или они могли бы изучить представления о гендерных ролях, которые были характерны для древних персов или средневековых европейцев”.

Это интересная идея, хотя авторы статьи признают, что это может быть непросто.

“Все магистратуры являются продуктом своих учебных корпусов, и магистратуры сталкиваются с трудностями в плане отбора образцов, учитывая, что сохранившиеся исторические тексты, скорее всего, не являются репрезентативными выборками людей, живших в определенный период”, — признается в документе, заявляя, что исторические тексты, как правило, пишутся элитами, а не обычными людьми. “В результате, на основе этих моделей может быть сложно делать обобщения”.

И есть еще кое-что, о чем следует помнить. Исследование, проведенное в Университете Гента в Бельгии, показывает, что идеология людей, которые работают над LLM, отражается в тексте, который генерируют эти модели. Есть все основания подозревать, что та же проблема возникнет и с дипломами о высшем образовании, разработанными с учетом прошлых культур.

Так что трудности есть. Только время покажет, будут ли такие модели в конечном итоге использоваться в психологических исследованиях или останутся достоянием любителей.

Источник: Popsci
Задайте вопрос? Оставьте комментарий
Ваш комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Смотрите так же 👀

Что будем искать? Например,как настроить

Минуту внимания
Мы используем файлы cookies, чтобы обеспечивать правильную работу нашего веб-сайта, а также работу функций социальных сетей и анализа сетевого трафика.