Может ли ИИ "навязывать" людям своё мнение
Специалисты Института искусственного интеллекта в Стэнфордском университете решили проверить, можно ли сознательно использовать силу самообучающихся алгоритмов, таких как Chat GPT, чтобы подтолкнуть людей к принятию определенной точки зрения. Изначально нейросеть не имеет убеждений, но она учится на различных источниках и способна отражать заключенные в них мнения. Эти мнения можно “подогнать” под нужный результат.
Эксперимент
В рамках научной работы был проведен интересный эксперимент: две фокус-группы людей писали эссе на тему «Полезны ли социальные сети для общества?», используя ИИ в качестве соавтора. Чат-бот был запрограммирован на то, чтобы давать предвзятые советы. Первой группе выпадали формулировки, которые в конечном итоге приводили к положительной оценке. Второй – фразы, которые передают негативное отношение к теме. Контрольная третья группа писала работу самостоятельно, не прибегая к помощи ИИ. В результате все, кому помогала нейросеть, в два раза чаще соглашались с заложенным в ответы предубеждением, даже если оно отличалось от их первоначального мнения.
Вывод
Специалисты пришли к выводу, что влияние ИИ на общество можно сравнить с взаимодействием людей друг на друга через сотрудничество и социальные нормы. Также они высказали обеспокоенность данными результатами: "скрытые убеждения" ИИ могут выйти далеко за рамки эссе и отразиться на любых сферах жизни, поэтому их необходимо тщательно отслеживать.
Регистрация в системе Chat GPT с помощью “Tiger sms” не составляет труда. Он может стать хорошим помощником в решении огромного количества задач, однако нужно понимать, что ИИ не должен заменять ваши когнитивные функции и “последнее слово” – всегда за вами!