ВЕСТИ

Прямой Эфир

    Прогнозы

      Искусственный интеллект проверят на расизм и сексизм

      Москва, 8 августа - "Вести.Экономика". Разработчикам и программистам рекомендуется следить за использованием искусственного интеллекта (ИИ) в работе, чтобы убедиться, что ИИ не становится расистским или сексистским.

      Конфедерация британской промышленности (КБР) в новой статье на тему искусственного интеллекта на рабочем месте призвала к тому, чтобы на предприятиях, где разрабатывается или внедряется ИИ, внимательно следили за развитием технологий, дабы остановить "укоренение существующих несправедливости и барьеров".

      В докладе "AI: Этика на практике" говорится, что различные группы ученых работают над системами искусственного интеллекта, чтобы предотвратить возможные проблемы, связанные с его использованием.

      "Различные команды призваны следить за данными, которые отправляются в нейросети с целью обнаружить проблемы и скорректировать допущения, которые могут привести к несправедливой предвзятости в алгоритмах ИИ", - пишет КБР.

      Ведомство также призвало компании проверить данные, поступающие в системы ИИ, чтобы они не содержали "исторического предубеждения против определенных групп", на случай если эти данные попадут в ИИ.

      В прошлом году онлайн-ритейлер Amazon разработал алгоритм на основе искусственного интеллекта для автоматизации подбора кандидатов на работу, но в итоге отказался от системы.

      Проект HR-нейросети, способной самостоятельно нанимать персонал, был закрыт из-за дискриминации соискателей по половому признаку. Искусственный интеллект решил, что женщины по умолчанию неспособны работать, и нанимал в компанию только мужчин. В Amazon хотели скрыть факт существования враждебного ИИ, но информация просочилась в прессу.

      По данным Reuters, в 2014 г. компания собрала команду разработчиков в Шотландии и поставила перед ней задачу создать программу для поиска и отбора лучших кандидатов. "В компании хотели получить инструмент, который выберет пять лучших резюме из ста, чтобы потом нанять этих людей", — рассказал один из собеседников агентства.

      Ответственная группа разработала 500 компьютерных моделей, обученных искать резюме в открытых рекрутинговых базах и отбирать лучших кандидатов на основе 50 тыс. терминов из резюме прошлых соискателей в Amazon. Искусственный интеллект оценивал кандидатов по шкале от одного до пяти.

      В 2015 г. разработчики заметили, что система подбирает специалистов-женщин меньше, чем мужчин. Команда объяснила это тем, что алгоритм обучался на базе, в которую вошли резюме всех сотрудников Amazon за последние десять лет. Мужчин в выборке оказалось больше, чем женщин, поэтому искусственный интеллект пришел к выводу, что кандидаты-мужчины предпочтительнее, пишет Reuters.

      Amazon отредактировала алгоритм, но корректировка не давала гарантий, что она не будет дискриминировать кандидатов по другим признакам, поэтому к началу 2017 г. компания решила отказаться от использования системы.

      Исполнительный директор Google Сундар Пичаи также объяснил важность избежания предвзятости в искусственном интеллекте. В своем выступлении в начале этого года он привел пример системы искусственного интеллекта для выявления рака кожи.

      Наличие неполных данных, которые игнорируют определенные этнические группы, может сделать систему менее способной идентифицировать рак кожи в определенных группах.

      "Чтобы быть эффективным, он должен уметь распознавать самые разные оттенки кожи, характерные для всего населения", - сказал он.
      

      Новости партнеров

      Тест. Вторая мировая война. Знаете ли вы ее предысторию?

      1 сентября 1939 года, ровно 80 лет назад, началась Вторая мировая война. Сегодня исторический ревизионизм набирает обороты. Россию все чаще не зовут на торжественные мероприятия, в честь каких либо памятных дат, связанных с войной.

      Форма обратной связи

      Отправить

      Форма обратной связи

      Отправить