реклама
Теги → дискриминация

На TSMC подали в суд за дискриминацию: на фабрику чипов в США тайванцу устроиться проще, чем американцу

Нынешние и бывшие сотрудники TSMC, в том числе директор по подбору персонала, подали на компанию в суд, обвинив её в дискриминации при приёме на работу. Крупнейший в мире контрактный производитель чипов, по версии истцов, отдавал предпочтение сотрудникам, являющимся гражданами Тайваня, в ущерб американским работникам.

 Источник изображений: tsmc.com

Источник изображений: tsmc.com

Иск подан от имени Деборы Хауингтон (Deborah Howington), директора по подбору персонала, в минувшем августе. Она утверждает, что стала свидетелем, как отдел кадров создал рабочее место, при приёме на которое «сотрудники неазиатского происхождения и неграждане Тайваня подвергаются более строгому контролю, чем работники азиатского происхождения (включая граждан Тайваня) в аналогичном положении». В дальнейшем к иску присоединились ещё около десятка сотрудников TSMC.

Компания намеревается получить от американских властей $11,6 млрд по «Закону о чипах»: $6,6 млрд в виде гранта и $5 млрд в виде кредитов. Средства пойдут на строительство ряда объектов в Аризоне. В свете этого необходимо, чтобы компания соблюдала федеральные законы о дискриминации и относилась одинаково к представителям всех рас, национальностей и гражданам всех стран, заявили представители истцов. «TSMC твёрдо верит в ценность разнообразной рабочей силы, и мы нанимаем и продвигаем по службе без оглядки на пол, религию, расы, национальность и политическую принадлежность, потому что уважаем различия и считаем, что равные возможности трудоустройства укрепляют нашу конкурентоспособность. Мы также предоставляем работникам различные каналы для выражения обеспокоенности и стремимся решать проблемы конструктивно», — заявили в TSMC ресурсу Tom's Hardware.

Отдел кадров TSMC на Тайване отправляет американскому подразделению компании резюме кандидатов, которые уже прошли проверку и могут работать в США — после этого американское подразделение «просто принимает на работу этих азиатских/тайваньских кандидатов, даже если в США вакансии не открывались», говорится в иске. В качестве желательного указывалось знание мандаринского или китайского языков, даже если оно не требовалось по должности; этот критерий использовался для отсеивания не говорящих на одном из этих языков сотрудников и для ограничения их карьерного роста. Имеющие визы тайваньские работники компании использовались для сокращения профсоюзных должностей в ущерб американским сотрудникам, утверждают истцы.

Ранее СМИ сообщали, что TSMC испытывает затруднения с адаптацией к американской рабочей культуре — трудовая практика компании отпугивает американских работников, и чтобы уложиться в сроки, она была вынуждена привезти с Тайваня несколько сотен своих сотрудников. К настоящему времени фактических выплат по «Закону о чипах» было произведено не так много, и нет ясности, повлияют ли судебные иски о дискриминации американских работников на выделение средств тайваньской компании.

Facebook✴ может столкнуться с новым иском из-за предвзятости рекламного алгоритма

Администрации Facebook может быть предъявлен иск из-за дискриминационного характера работы рекламных алгоритмов соцсети, постановил 21 сентября апелляционный суд штата Калифорния. Решение было вынесено в рамках рассмотрения коллективного иска против Facebook от 2020 года — администрацию платформы обвинили в том, что она не показывает рекламу страховых услуг женщинам и пожилым людям, тем самым нарушая их гражданские права.

 Источник изображения: succo / pixabay.com

Источник изображения: succo / pixabay.com

В основу дела лёг инцидент, произошедший с 48-летней Самантой Лиапес (Samantha Liapes), которая попыталась найти в Facebook страховую компанию. Соцсеть не показывала ей рекламу страховых услуг из-за её возраста и пола, заявила истец. Апелляционный суд своим постановлением от 21 сентября отменил решение суда предыдущей инстанции — в нём говорилось, что компания освобождается от ответственности, поскольку не может быть наказана за размещённый пользователями противоправный контент. В реальности администрация платформы была осведомлена, что рекламодатели намеренно таргетировали свою рекламу на основе возраста и пола пользователей, постановил апелляционный суд. «Facebook не просто распространяет контент в качестве издателя, <..> он создаёт, формирует или развивает контент», — говорится в решении.

Рекламные алгоритмы Facebook уже не впервые оказываются предметом судебных разбирательств. В 2018 году против администрации платформы был подан федеральный иск, в котором компанию обвинили в жилищной дискриминации, и ряд последующих экспертиз подтвердил справедливость этих обвинений. В 2022 году соцсеть урегулировала претензии с американскими властями, и в начале 2023 года выпустила обновление рекламной платформы, направленное на исключение этого вида дискриминации.

У искусственного интеллекта обнаружили склонность к дискриминации меньшинств

Активно внедряемые сегодня во все сферы деятельности системы искусственного интеллекта демонстрируют предвзятое отношение к тем или иным меньшинствам, утверждают представители многих правозащитных организаций. Это проявляется в сбоях систем распознавания лиц, которые с трудом идентифицируют чернокожих; отказах голосовой идентификации для пользователей с характерным региональным акцентом; или запретах на выдачу кредитов меньшинствам в банках.

 Источник изображения: Hitesh Choudhary / unsplash.com

Источник изображения: Hitesh Choudhary / unsplash.com

Набиль Манджи (Nabil Manji), глава отдела криптовалют и web3 в платёжной службе Worldpay отмечает, что качество работы ИИ-модели определяется двумя составляющими: использованными при обучении материалами и эффективностью алгоритмов — поэтому Reddit и другие крупные платформы взимают плату за доступ к данным для обучения ИИ. Образуется фрагментация данных, и в традиционно консервативной сфере финансовых услуг результативность ИИ оказывается ниже, чем у компаний, способных быстро внедрять передовые решения и производить выборки актуальных данных. Образцом репрезентативно разрозненных данных в этом случае может служить технология блокчейна, уверен эксперт.

Румман Чоудхури (Rumman Chowdhury), бывший глава подразделения Twitter по этике машинного обучения назвал сферу кредитования ярким примером дискриминации со стороны ИИ. Аналогичная схема действовала в Чикаго в тридцатые годы прошлого века, напомнил эксперт: в банках висели большие карты города, на которых красным были отмечены районы с преимущественным проживанием чернокожего населения — жителям этих районов в кредитах отказывали. Аналогичные ошибки, по его словам, совершают и современные ИИ-алгоритмы оценки кредитоспособности граждан, принимая этническую принадлежность клиента в качестве одного из параметров.

 Источник изображения: Inatimi Nathus / unsplash.com

Источник изображения: Inatimi Nathus / unsplash.com

Об этом говорит и Энгл Буш (Angle Bush), основательница организации «Чёрные женщины в искусственном интеллекте» — она признаёт, что такая дискриминация носит непреднамеренный характер и призывает кредитные организации как минимум допускать возможность такой ошибки. Разработчик в области ИИ Фрост Ли (Frost Li) обратил внимание, что из-за технологической дискриминации уже появилось множество малых финтех-стартапов специально для иностранцев: традиционный банк легко может отказать выпускнику Токийского университета в выдаче кредитной карты, даже если он работает в Google, но согласиться обслуживать любого выпускника местного колледжа.

Доказать факты такой дискриминации бывает непросто. Apple и Goldman Sachs пытались обвинить в том, что пользующимся Apple Card женщинам они устанавливали более низкие кредитные лимиты, чем мужчинам. Но Департамент финансовых услуг Нью-Йорка не смог найти подтверждений этим обвинениям.

По мнению экспертов, защититься от дискриминации человека со стороны ИИ помогут меры регулирования отрасли, вводимые международным организациями вплоть до ООН. Потенциальными проблемами ИИ являются становящиеся компонентами алгоритмов элементы дезинформации и предубеждений, а также «галлюцинации». В этой связи при внедрении ИИ в работу компаний или органов власти необходимы механизмы обеспечения прозрачности и подотчётности алгоритмов, которые помогут даже не являющимся профессионалами гражданам самостоятельно судить об их эффективности. У граждан должна быть возможность подавать жалобы на подобные решения; ИИ-алгоритмы должны проходить проверки, а на этапе их развёртывания необходима экспертиза на предмет предвзятости.

window-new
Soft
Hard
Тренды 🔥