WAYXAR WALL: «Об этике AI в России и мире – комментарий эксперта»

Вопрос об этике AI возник в первую очередь по инициативе угнетаемых американских меньшинств — многие наборы данных исторически собирались представителями белого большинства и содержали данные о нем же. В результате точность алгоритмов, обученных на этих данных, в применении к национальным меньшинствам страдала. Конечно, неэтично, если алгоритм распознавания считает обезьяной афроамериканца в 10 раз чаще, чем белокожего. Да и распознавать речь уроженцев Кентукки надо в равной степени с речью уроженцев Бостона или Нью-Йорка.

В России дискриминация по национальному признаку запрещена законом, и несмотря на то, что чернокожих россиян довольно-таки мало, важно, чтобы используемые системы одинаково хорошо работали и для тувинца, и для архангелогородца. А уж подходами наших китайских товарищей, специально заточенными на уйгуров, и вовсе не стоит пользоваться. Таким образом, в России алгоритмическая дискриминация такого рода уже стоит вне области этики и в области юриспруденции – хотя, как раз юридическая практика в этой области в России, насколько мне известно, пока что отсутствует.

Однако прогрессивная американская общественность скоро пошла дальше и широко подняла вопрос об этике в области AI вообще. Такая постановка вопроса представляется смешивающей сразу несколько понятий.

Если мы говорим про системы, основанные на понятных уже сейчас принципах машинного обучения, то этика в части их создания точно та же, что и в создании любых иных программных систем. Собственно, в российском кодексе этики в сфере ИИ можно почти везде заменить слова “Актор ИИ” на “Разработчик сложных систем”, и смысл не изменится.

Если же редуцировать этику к ее золотому правилу «не делай другим того, чего не желаешь себе», то понятны вещи общеприложимые к разработке программного обеспечения. Не надо писать вредоносное программное обеспечение. Не надо писать программное обеспечение для разного рода воровства (например, решатели капчи). Надо тестировать программное обеспечение и решать проблемы его использования, и так далее. Ну, а моральные проблемы разработки программного обеспечения для использования в силовых целях – например, в оружии – разработчики решают каждый для себя.

Если же мы говорим про предполагаемый сильный искусственный интеллект, то существенно более полезным представляется финансирование государством развития его разработки, нежели чем ограничение его – пока что не существующего — применения. В конце концов, Россия весьма сильно отстает как от мировых лидеров в области искусственного интеллекта – Китая и США, так даже и от Европы, по уровню исследований (говорю, как один из очень немногих россиян, имеющих публикации мирового уровня на тему сильного ИИ). В такой ситуации долгосрочная конкурентоспособность экономики достигается отнюдь не ограничениями, а попыткой точечного прорыва в той области, в которой другие страны эти ограничения устанавливают.

 

Николай Михайловский, директор компании НТР.