Прорывы и разработки в области искусственного интеллекта влекут за собой новые вызовы и проблемы. По мере того как алгоритмы ИИ становятся все более продвинутыми, становится все труднее понять их внутреннюю работу . Отчасти это связано с тем, что компании, которые их разрабатывают, не допускают тщательного изучения своих собственных алгоритмов. Но многое из этого связано с простым фактом, что ИИ становится непрозрачным из-за его возрастающей сложности.

И это может превратиться в проблему по мере того, как мы продвигаемся вперед и искусственный интеллект становится все более заметным в нашей жизни.

В долгосрочной перспективе, алгоритмы ИИ выполняют гораздо лучше, чем их человеческие коллеги в задачах, которые они осваивают. Например, самостоятельное вождение автомобилей, которое в значительной степени зависит от алгоритмов машинного обучения, в конечном итоге сократит 90 процентов дорожно-транспортных происшествий . Диагностические платформы ИИ выявляют ранние признаки опасных заболеваний гораздо лучше, чем люди, и помогают спасать жизни. А прогнозное техническое обслуживание может обнаруживать признаки износа машин и инфраструктуры способами, которые невозможны для людей, предотвращая катастрофы и снижая затраты .

Но ИИ не безупречен, и делает ошибки, хотя и с более низкой скоростью, чем люди. В прошлом году AI-powered opponent в игре Elite Dangerous пришел в неистовство и начал создавать супер-оружие для охоты на игроков. В другом случае AI-чат-бот Microsoft Tay начал извергать расистские комментарии в течение дня после его запуска. И помните, что в то время Google Face recognition начал делать некоторые оскорбительные маркировки изображений ?

Ни одна из этих ошибок не является критической, и ущерб может быть отброшен без особого размышления. Тем не менее, нейронные сети, алгоритмы машинного обучения и другие подмножества ИИ находят свой путь в более критические области. Некоторые из этих областей включают Здравоохранение, Транспорт и право, где ошибки могут иметь критические, а иногда и фатальные последствия.

Мы, люди, постоянно совершаем ошибки, в том числе и фатальные. Но разница здесь в том, что мы можем объяснить причины своих действий и нести ответственность. Даже программное обеспечение, которое мы использовали до эры ИИ, было кодом и логикой, основанной на правилах. Ошибки могут быть изучены и аргументированы, а виновность может быть четко определена.

То же самое нельзя сказать и об искусственном интеллекте. В частности, нейронные сети, которые являются ключевым компонентом во многих приложениях ИИ, являются чем-то вроде “черного ящика"."Часто даже инженеры не могут объяснить, почему их алгоритм принял то или иное решение. В прошлом году Google Go-playing AI ошеломил мир, придумав шаги, которые профессионалы не могли придумать.

Как говорит Нильс Ленке, старший директор по корпоративным исследованиям компании Nuance, о нейронных сетях: "не всегда ясно, что происходит внутри — вы позволяете сети организоваться, но это действительно означает, что она сама себя организует: она не обязательно говорит вам, как она это сделала.”

Это может вызвать проблемы, если эти алгоритмы имеют полный контроль при принятии решений. Кто будет нести ответственность, если самоуправляемый автомобиль станет причиной смертельного ДТП? Вы не можете привлечь кого-либо из пассажиров к ответственности за то, что они не контролировали. И производителям будет трудно объяснить событие, которое включает в себя так много сложностей и переменных величин. И не ждите, что сам автомобиль начнет объяснять свои действия.

То же самое можно сказать и о приложении ИИ, которое имеет автономный контроль над процессом лечения пациента. Или алгоритм оценки риска, который решает, остаются ли осужденные в тюрьме или свободны идти.

Итак, можем ли мы доверять искусственному интеллекту, чтобы принимать решения самостоятельно? Для некритических задач, таких как реклама, игры и предложения Netflix, где ошибки терпимы, мы можем. Но в ситуациях, когда социальные, правовые, экономические и политические последствия могут быть катастрофическими, мы не можем — пока не можем. То же самое относится и к сценариям, в которых на карту поставлены человеческие жизни. Мы все еще не готовы отдать управление роботам.

Как говорит Ленке, " нужно смотреть на задачи, которые находятся под рукой. Для некоторых это не очень важно, если вы не до конца понимаете, что происходит, или даже если сеть неверна. Например, система, которая предлагает музыку: все, что может пойти не так, это слушать скучную музыку. Но с такими приложениями, как корпоративное обслуживание клиентов, где задействованы транзакции или компьютерное улучшение клинической документации, что мы обычно делаем, мы не помещаем ИИ в изоляцию, но у нас есть его совместная работа с человеком.”

На данный момент искусственный интеллект покажет свой полный потенциал в дополнении человеческих усилий. Мы уже видим набеги в таких областях, как медицина и кибербезопасность . ИИ заботится о проведении ориентированных на данные исследований и анализа и представляет экспертам-людям бесценные идеи и предложения. Впоследствии эксперты принимают решения и берут на себя ответственность за возможные последствия.

В то же время, фирмы и организации должны сделать больше, чтобы сделать искусственный интеллект более прозрачным и понятным. Примером может служить некоммерческая исследовательская компания OpenAI , основанная Элоном Маском из Tesla и Сэмом Альтманом из YCombinator. Как следует из названия, целью OpenAI является открытие исследований и разработок в области ИИ для всех, независимо от финансовых интересов.

Еще одна организация, партнерство по ИИ, направлена на повышение осведомленности и решение таких проблем ИИ, как предвзятость. Основанное технологическими гигантами, включая Microsoft, IBM и Google, партнерство также будет работать над этикой ИИ и лучшими практиками.

В конечном счете, мы достигнем — к лучшему или худшему — искусственного общего интеллекта, ИИ, который находится на одном уровне с человеческим мозгом. Может быть тогда, наши автомобили и роботы смогут пойти в суд и предстать перед судом за свои действия. Но тогда мы будем иметь дело с совершенно другими проблемами.

Это на будущее. В современном мире, где доминируют люди, чтобы принимать критические решения, вы должны быть безупречны или подотчетны. На данный момент ИИ не подпадает ни под одну из этих категорий.