Кризисная текстовая строка прекращает обмен данными разговоров с компанией искусственного интеллекта

Кризисная текстовая линия решила прекратить делиться данными разговоров с выделенной компанией по искусственному интеллекту Loris.ai после тщательного изучения со стороны экспертов по защите данных. “В течение этих последних дней мы внимательно прислушивались к проблемам нашего сообщества”, — говорится в заявлении службы горячей линии на ее веб-сайте. “Мы слышим тебя. У Crisis Text Line были открытые и публичные отношения с Loris AI. Мы понимаем, что вы не хотите, чтобы Crisis Text Line делилась какими-либо данными с Loris, даже если данные обрабатываются надежно, анонимизируются и очищаются от личной информации.” Loris.ai удалит все данные, полученные из текстовой строки.

Политико недавно сообщил, как Кризисная текстовая линия (которая не связана с Национальной линией жизни по предотвращению самоубийств) делится данными из разговоров с Loris.ai , которая создает системы искусственного интеллекта, предназначенные для усиления чуткого общения представителей службы поддержки клиентов. Crisis Text Line — это некоммерческий сервис, который предоставляет текстовую строку для дискуссий о психическом здоровье, но он также является акционером Loris.ai и, по данным Politico, в какой-то момент поделился генеральным директором с компанией.

“Никакой метод очистки данных или заявление в условиях предоставления услуг не могут устранить это нарушение этических норм”

Прежде чем пользователи горячей линии поговорят с консультантами-добровольцами, они дают согласие на сбор данных и могут ознакомиться с практикой обмена данными компании. Politico процитировал одного волонтера, который утверждал, что люди, которые связываются с линией, “ожидают, что разговор будет только между двумя людьми, которые разговаривают”, и сказал, что он был уволен в августе после того, как выразил обеспокоенность по поводу обработки данных CTL. С тех пор тот же сотрудник начал петицию, призывающую CTL “реформировать свою этику обработки данных”.

Политико отметил, как в текстовой строке говорится, что использование данных и искусственный интеллект играют определенную роль в том, как он работает:

“Наука о данных и искусственный интеллект лежат в основе организации — в ней говорится, что те, кто находится в ситуациях с самыми высокими ставками, ждут не более 30 секунд, прежде чем начать обмениваться сообщениями с одним из тысяч консультантов-добровольцев. В нем говорится, что он анализирует собранные данные для получения информации, которая может помочь выявить наиболее нуждающиеся случаи или свести к нулю проблемы людей, во многом так же, как Amazon, Facebook и Google отслеживают тенденции на основе лайков и поисковых запросов ”.

В недавней истории была выбрана и опущена информация о нашей политике конфиденциальности данных. Мы хотим уточнить и дополнить отсутствующие факты, чтобы люди поняли, почему этическая конфиденциальность данных является основой нашей работы.

Нить :

— Текстовая строка кризиса (@CrisisTextLine) 29 января 2022 г.

После отчета Crisis Text Line опубликовала заявление на своем веб-сайте и в Твиттере. В заявлении Crisis Text Line говорится, что она “не продает и не делится личными данными с какой-либо организацией или компанией”. Далее в нем утверждалось, что “единственным коммерческим партнером, с которым мы поделились полностью очищенными и анонимизированными данными, является Loris.ai . Мы основали Loris.ai использовать уроки, извлеченные из работы нашего сервиса, чтобы сделать службу поддержки клиентов более человечной и чуткой. Loris.ai это коммерческая компания, которая помогает другим коммерческим компаниям применять методы деэскалации в некоторых из их наиболее известных стрессовых и болезненных моментов между представителями службы поддержки клиентов и клиентами.”

В свою защиту Crisis Text Line заявила: “Наш процесс очистки данных был подтвержден независимыми наблюдателями за конфиденциальностью, такими как Информационный центр электронной конфиденциальности, который назвал Crisis Text Line “образцовым хранителем персональных данных”. Однако он ссылался на письмо 2018 года в FCC, в котором говорилось, что защита стала более шаткой теперь, когда Информационный центр электронной конфиденциальности (EPIC) ответил собственным заявлением, в котором говорилось, что цитата использовалась вне ее первоначального контекста:

“Наши заявления в этом письме были основаны на обсуждении с CTL их политики анонимизации данных и очистки для обмена академическими исследованиями, а не на техническом обзоре их практики обработки данных. Наш обзор не был связан, и мы не обсуждали с CTL коммерческое соглашение о передаче данных между CTL и Loris.ai . Если бы мы это сделали, мы могли бы обсудить этические проблемы, связанные с коммерческим использованием данных интимных сообщений, непосредственно с организацией и их консультантами. Но мы не были, и ссылка на наше письмо сейчас, вырванная из контекста, неверна”.

На Loris.ai веб-сайт утверждает, что “защита персональных данных лежит в основе всего, что мы делаем”, и что “мы черпаем свои идеи из анонимизированных, агрегированных данных, которые были очищены от личной информации (PII)”. Этого недостаточно для EPIC, в котором подчеркивается, что Лорис и CTL стремятся “извлечь коммерческую выгоду из наиболее чувствительных, интимных и уязвимых моментов в жизни (тех) людей, которые обращаются за помощью в области психического здоровья, и из трудолюбивых добровольцев-респондентов… Никакая техника очистки данных или заявление в условиях предоставления услуг не могут устранить это нарушение этики ”.

Обновление, 10.15 вечера по восточному времени: Эта история была обновлена, чтобы отразить решение Crisis Text Line прекратить обмен данными с Loris.ai .

Источник: pokypki.net

Понравилась статья? Поделиться с друзьями:
Модный тренд
Добавить комментарий