banner
Центр новостей
Непревзойденные цены на продукцию исключительного качества.

Вашингтон может остановить ИИ бесплатно

Jun 11, 2023

Пять способов, которыми Вашингтон может привлечь Силиконовую долину к ответственности

В апреле юристы авиакомпании Avianca заметили нечто странное. Пассажир Роберт Мата подал в суд на авиакомпанию, утверждая, что тележка для обслуживания во время полета ударила и серьезно повредила его левое колено, но нескольких случаев, упомянутых в иске Маты, похоже, не существовало. Судья также не смог их проверить. Оказалось, что ChatGPT их все выдумал, сфабриковал имена и решения. Один из адвокатов Маты, Стивен А. Шварц, использовал чат-бота в качестве помощника (он впервые использовал программу для юридических исследований) и, как написал Шварц в письменных показаниях, «не знал о возможности того, что его содержание может быть ложным. »

Этот инцидент был лишь одним из множества случаев, когда генеративный ИИ распространял ложь, не говоря уже о финансовых махинациях, порнографии без согласия и многом другом. Технологические компании продают свои продукты искусственного интеллекта и потенциально получают огромные прибыли, при этом практически не подотчетны и не контролируются законом за реальный ущерб, который эти продукты могут нанести. Сейчас федеральное правительство пытается наверстать упущенное.

В конце прошлого месяца администрация Байдена объявила, что семь технологических компаний, находящихся в авангарде разработки искусственного интеллекта, согласились принять ряд добровольных обязательств, чтобы гарантировать, что их продукты «безопасны, надежны и заслуживают доверия». Эти обязательства последовали за шквалом саммитов Белого дома по вопросам искусственного интеллекта, выступлениями Конгресса по регулированию этой технологии и заявлениями различных правительственных учреждений о том, что они серьезно относятся к искусственному интеллекту. В своем объявлении OpenAI, Microsoft, Google, Meta и другие обязались подвергать свои продукты стороннему тестированию, инвестировать в снижение предвзятости и быть более прозрачными в отношении возможностей и ограничений своих систем искусственного интеллекта.

Читайте: В Америке уже есть низший класс ИИ

Формулировка многообещающая, но это всего лишь обещание, в котором отсутствуют механизмы обеспечения соблюдения и подробности дальнейших шагов. Регулирование ИИ требует неуклюжей бюрократии, которая сможет бороться с заведомо секретными компаниями и быстро развивающимися технологиями. Большая часть языковых обезьян администрации Байдена пиар-линии технических светил о глобальных возможностях их продуктов, таких как биологическое оружие и машины, которые «самовоспроизводятся». Действия правительства будут иметь важное значение для защиты жизни и средств к существованию людей — не только от предполагаемой долгосрочной угрозы со стороны злых сверхразумных машин, но и от повседневных угроз. Генеративный ИИ уже продемонстрировал грубые предубеждения и потенциал для неправильного использования. И вот уже более десяти лет менее продвинутые, но столь же непрозрачные и часто дискриминирующие алгоритмы используются для проверки резюме и определения кредитного рейтинга, в диагностическом программном обеспечении и как часть инструментов распознавания лиц.

Я поговорил с рядом экспертов и в итоге представил список из пяти наиболее эффективных способов, с помощью которых правительство могло бы регулировать ИИ, чтобы защитить страну от повседневных рисков, связанных с технологиями, а также от их более гипотетических, апокалиптических опасностей.

1. Ни в чем не верьте компаниям, занимающимся искусственным интеллектом, на слово.

Препарат, рекламируемый для химиотерапии, должен принести пользу больным раком в клинических испытаниях, например, уменьшая опухоли, а затем получить одобрение FDA. Затем его производитель должен сообщить о побочных эффектах, которые могут возникнуть у пациентов. Но в отношении продуктов искусственного интеллекта такой ответственности не существует. «Компании заявляют о том, что ИИ способен делать то-то и то-то, но при этом не доказывают, что они могут», — сказала мне Сара Майерс Уэст, управляющий директор AI Now Institute и бывший старший советник Федеральной торговой комиссии по ИИ. Многие технологические компании подвергались критике за искажение информации о том, насколько предвзяты или эффективны их алгоритмы, или за предоставление почти никаких доказательств для их оценки.

Требование, чтобы инструменты искусственного интеллекта проходили стороннее тестирование, чтобы гарантировать, что они соответствуют согласованным показателям предвзятости, точности и интерпретируемости, «является действительно важным первым шагом», — Александра Гивенс, президент Центра демократии и технологий, некоммерческой организации, которая выступает за конфиденциальность и права человека в Интернете и получает некоторое финансирование от технологической индустрии, рассказал мне. Компании могут быть вынуждены раскрыть информацию о том, как обучались их программы, об ограничениях программного обеспечения и о том, как они снижают потенциальный вред. «Сейчас наблюдается чрезвычайная информационная асимметрия», — сказала она: технологические компании, как правило, очень мало раскрывают информацию о том, как они обучают и проверяют свое программное обеспечение. Аудит может включать в себя проверку того, как часто, скажем, программа компьютерного зрения неправильно распознает черные лица по сравнению с белыми или связывают ли чат-боты определенные профессии со стереотипными гендерными ролями (ChatGPT однажды заявил, что адвокаты не могут быть беременными, потому что адвокаты должны быть мужчинами).