Искусственный интеллект (ИИ) позволил совершить прорывы в науке, но при этом он учится влиять на человека и его порой уже сложно отличить от настоящих людей. Человек сегодня существует в условиях «искусственной социальности», что порождает новые риски манипулирования общественным сознанием. Как снизить риски расширения применения ИИ в науке и повседневной жизни — ответ на этот вопрос искали эксперты в ходе онлайн-семинара, организованного школой философии и культурологии факультета гуманитарных наук НИУ ВШЭ.
С развитием новых технологий коммуникации возникла проблема искусственной социальности, говорит социолог Анна Кулешова, председатель Совета по этике научных публикаций, член Комиссии РАН по противодействию фальсификации научных исследований, руководитель департамента издательских программ ВЦИОМ, главный редактор журнала «Социодиггер». Ее доклад «Этические парадоксы искусственной социальности» задал тему обсуждения на семинаре.
«Ты должен доказывать смартфону, что ты человек, а не робот, указывая на светофоры или другие предметы. При этом люди не испытывают раздражения», — рассказывает Анна Кулешова. Большинство людей приняли новые правила изменившейся реальности.
Искусственной социальностью, считает социолог, можно называть участие искусственного интеллекта в социальном взаимодействии как непосредственного актора или посредника. ИИ и нейросети способны генерировать изображения лиц и людей, имитировать общение, похожее на человеческое, и человек не всегда способен понять, является ли его собеседник в соцсети живым субъектом или хорошо настроенным ботом. Искусственная социальность стала элементом повседневного общения.
Анна Кулешова акцентирует внимание на особенности применения ИИ в науке. Благодаря этому можно точнее диагностировать заболевание, анализировать большие объемы данных, но одновременно искусственная социальность входит в жизнь ученых через фейки и машинный перевод.
Фото: iStock
Так, ИИ может симулировать «научные» тексты, которые сложно отличить от настоящих, и только низкое качество ссылок позволяет быстро обнаружить подлог. Возникают этические коллизии. Человек управляет ИИ для решения разных задач, оставляет за собой ключевые решения, но искусственный интеллект учится влиять на человека, и последствия этого разнообразны. ИИ может быть помощником человека в развитии, подстраиваться под его задачи, решение которых в том числе затруднено ограничениями памяти, помогать сотрудникам, занятым анализом больших объемов информации.
Однако бывают ситуации, когда вследствие применения ИИ и действия фактора искусственной социальности возникают побочные эффекты, возможны случаи применения в целях, не предусмотренных разработчиком. ИИ позволяет следить за взаимодействиями человека в Сети и создавать его сетевой портрет, использование элементов которого может нанести вред. Наконец, постоянное использование людьми многочисленных гаджетов ведет к «киборгизации» человека. «У нас все меньше уверенности в достоверности информации и реальности собеседников. Мы не уверены, что имеем дело с настоящими людьми и данными», — говорит Анна Кулешова.
Она отметила, что ИИ способен генерировать информацию, похожую на созданную ученым, но она формируется по алгоритму, который знаком человеку, и может возникнуть ситуация, когда машина начнет создавать псевдонаучные данные, которые будет сложно проверить.
Среди вызовов искусственной социальности автор доклада назвала риск манипуляции общественным мнением в соцсетях через ботов и аккаунты выдуманных ученых, транслирующих информацию, выгодную властям или крупным корпорациям. Она обеспокоена тем, что ИИ и искусственная социальность позволяют выявлять «мыслепреступления» и могут способствовать подавлению инакомыслия. Технологии, предназначенные для решения одних задач, например поиска преступников, применяются в иных целях, например для выявления определенных людей на улицах, при этом общество не может контролировать применение ИИ в «неправильных» целях и его пользователей в правоохранительных органах и корпорациях.
Это заставляет людей вырабатывать новые принципы цифровой гигиены. Анна Кулешова напомнила, что попытка использовать ИИ для выработки решений в судах США показала, что алгоритм настроен против афроамериканцев. Другой проблемой стало определение алгоритма действий автомобиля-беспилотника при возможном ДТП, то есть речь идет о выборе между спасением пассажира и спасением пешехода. Затем встает вопрос, кого считать виновником аварии — разработчика ИИ, компанию-оператора или изготовителя машины?
Профессор факультета права ВШЭ Юрий Арзамасов поинтересовался мнением автора доклада о подписанном недавно Кодексе этики в сфере искусственного интеллекта. Анна Кулешова отметила пользу обсуждения кодекса и его норм, а также важность создания в НИУ ВШЭ центра по изучению ИИ.
Содокладчик Олег Грешнев, инженер-исследователь, архитектор ИИ, руководитель компании VINGRID, эксперт в области программных решений для управления техникой и обработки данных, напомнил о тех преимуществах, которые дает применение ИИ. Проблема нередко заключается в слабом контроле людей за решениями ИИ, будь то штрафы автомобилистам, присланные с камер, или выдача кредитов, говорит эксперт. В науке ИИ может быть помощником или даже партнером ученого, освобождающим его от рутинной работы: расчетов, анализа данных и громадных объемов информации. Он способен изучать научную литературу.
Фото: iStock
Алгоритмы позволяют выделить ключевые элементы будущего исследования, особенно когда речь идет о междисциплинарных работах. Наконец, ИИ помогает наладить коммуникации, создать общие базы данных исследований и экспериментов.
В частности, напоминает Олег Грешнев, прорывы в генетике были бы невозможны без применения ИИ. Его использование помогло найти недорогие заменители редкоземельных элементов для создания агрегатов для выработки «чистой» энергии. Другим интересным направлением применения ИИ и нейросетей в науке он считает генерацию гипотез. Что касается фейков, проблема появления которых действительно серьезна, то, если известен алгоритм его создания, другой алгоритм покажет, что настоящее, а что — машинная имитация.
При нынешнем уровне развития ИИ, говорит Олег Грешнев, технарям следует послушать гуманитариев — что есть благо, добро и зло для человека. «Нужно всем заниматься этикой ИИ, особенно юристам», — уверен эксперт.
Юрий Арзамасов поинтересовался, следует ли законодательно закрепить сферы применения ИИ, особенно там, где человеку угрожает опасность. «Нужны вещи не строго запретительные, нужно проложить рельсы, чтобы использование робота было выгоднее», — считает Олег Грешнев.
Руководитель школы философии и культурологии факультета гуманитарных наук ВШЭ Анастасия Углева обратила внимание на то, что в последнее время юристы все чаще отмечают перетекание этики из сферы философии в сферу права. «Важно помнить, что этическая норма идет впереди правовой, а обратное опасно для человека, важно наладить коммуникацию между правом и этикой, чтобы состоялся полноценный диалог» — так Анастасия Углева прокомментировала это относительно новое явление.
Если наладить коллаборацию между айтишниками, социологами и философами, резюмировала Анна Кулешова, можно прогнозировать развитие технологий и варианты их использования, но если задача ставится только первым, то возможны негативные последствия, как с ядерным оружием. «Важна правильная модерация. Нужно не опускать руки, консолидироваться и двигаться вперед», — уверена автор доклада.
Олег Грешнев добавил, что нужно изменить ситуацию, когда долгое время технические и гуманитарные дисциплины развивались порознь. «Сейчас нужно взаимодействие, гуманитарные эксперты слабо понимают развитие технологий, а технические специалисты недостаточно понимают последствия их роста», — констатировал специалист по искусственному интеллекту.
В дискуссии также приняли участие старший научный сотрудник школы философии и культурологии НИУ ВШЭ Диана Гаспарян, профессор Финансового университета при Правительстве РФ Александр Иванус и эксперт Бизнес-школы SRC Глеб Шулишов.
Фото: iStock