WAYXAR WALL: «Об этике AI в России и мире – комментарий эксперта»

Вопрос об этике AI возник в первую очередь по инициативе угнетаемых американских меньшинств — многие наборы данных исторически собирались представителями белого большинства и содержали данные о нем же. В результате точность алгоритмов, обученных на этих данных, в применении к национальным меньшинствам страдала. Конечно, неэтично, если алгоритм распознавания считает обезьяной афроамериканца в 10 раз чаще, чем белокожего. Да и распознавать речь уроженцев Кентукки надо в равной степени с речью уроженцев Бостона или Нью-Йорка.

В России дискриминация по национальному признаку запрещена законом, и несмотря на то, что чернокожих россиян довольно-таки мало, важно, чтобы используемые системы одинаково хорошо работали и для тувинца, и для архангелогородца. А уж подходами наших китайских товарищей, специально заточенными на уйгуров, и вовсе не стоит пользоваться. Таким образом, в России алгоритмическая дискриминация такого рода уже стоит вне области этики и в области юриспруденции – хотя, как раз юридическая практика в этой области в России, насколько мне известно, пока что отсутствует.

Однако прогрессивная американская общественность скоро пошла дальше и широко подняла вопрос об этике в области AI вообще. Такая постановка вопроса представляется смешивающей сразу несколько понятий.

Если мы говорим про системы, основанные на понятных уже сейчас принципах машинного обучения, то этика в части их создания точно та же, что и в создании любых иных программных систем. Собственно, в российском кодексе этики в сфере ИИ можно почти везде заменить слова “Актор ИИ” на “Разработчик сложных систем”, и смысл не изменится.

Если же редуцировать этику к ее золотому правилу «не делай другим того, чего не желаешь себе», то понятны вещи общеприложимые к разработке программного обеспечения. Не надо писать вредоносное программное обеспечение. Не надо писать программное обеспечение для разного рода воровства (например, решатели капчи). Надо тестировать программное обеспечение и решать проблемы его использования, и так далее. Ну, а моральные проблемы разработки программного обеспечения для использования в силовых целях – например, в оружии – разработчики решают каждый для себя.

Если же мы говорим про предполагаемый сильный искусственный интеллект, то существенно более полезным представляется финансирование государством развития его разработки, нежели чем ограничение его – пока что не существующего — применения. В конце концов, Россия весьма сильно отстает как от мировых лидеров в области искусственного интеллекта – Китая и США, так даже и от Европы, по уровню исследований (говорю, как один из очень немногих россиян, имеющих публикации мирового уровня на тему сильного ИИ). В такой ситуации долгосрочная конкурентоспособность экономики достигается отнюдь не ограничениями, а попыткой точечного прорыва в той области, в которой другие страны эти ограничения устанавливают.

 

Николай Михайловский, директор компании НТР.

Connection Information

To perform the requested action, WordPress needs to access your web server. Please enter your FTP credentials to proceed. If you do not remember your credentials, you should contact your web host.

Connection Type