Ошибки искусственного интеллекта

04.06.2023

(обновлено 04.06.2023)

3 мин

7

Юридические заметки

Адвокату Стивену Шварцу из американской юридической фирмы «Levidow, Levidow & Oberman» грозят санкции из-за ошибок в брифе дела его

Адвокату Стивену Шварцу из американской юридической фирмы «Levidow, Levidow & Oberman» грозят санкции из-за ошибок в брифе дела его клиента, который был составлен с помощью чат-бота с искусственным интеллектом (ИИ).

Вопрос ответственности юриста решится в Федеральном суде Южного округа Нью-Йорка 8 июня.

Ранее Шварц признался, что использовал ChatGPT для краткого изложения иска своего клиента к авиакомпании Avianca Airlines из-за травм, полученных во время полета. Как позднее выяснилось, в брифе упоминалось шесть несуществующих судебных решений.

Адвокат выразил сожаление о том, что полагался на новую технологию, и «не подозревал о возможности того, что ее содержимое может быть ложным», пишет Reuters.

Правила адвокатской этики, установленные Американской ассоциацией юристов, прямо не касаются искусственного интеллекта, однако, по словам экспертов, некоторые из них применяются в этой области.

Так, правило, касающееся вопросов компетентности, требует, чтобы юристы обеспечивали квалифицированное представительство и были в курсе современных веяний: они должны убедиться, что используемая ими технология предоставляет точную информацию, и не должны слишком полагаться на инструменты, чтобы не допустить ошибок.

Задайте вопрос всем юристам на сайте
382 юриста отвечают
35 минут среднее время ответа
79 вопросов за сутки
Доля Дмитрий Сергеевич Адвокат в Мурманске Дьяков Дмитрий Геннадьевич Юрист в Москве Буланкина Светлана Николаевна Юрист в Чебоксарах Курбанов Шарип Мамедсейфуллаевич Адвокат в Махачкале Демидченко Павел Валерьевич Юрист в Москве
Опишите ваш вопрос или ситуацию простыми словами. Начните с вопросительных слов, таких как «Что», «Как», «Можно ли» и т.д.

«Слепо полагаться на генеративный ИИ для получения текста, который вы используете для предоставления услуг своему клиенту, не получится», — приводит агентство слова декана юридического факультета Университета Саффолка, специалиста в сфере юридических технологий и этики Эндрю Перлмана.

Кроме того, обязательство по соблюдению конфиденциальности требует от юристов «прилагать разумные усилия для предотвращения непреднамеренного или несанкционированного раскрытия, или доступа к информации, касающейся представительства клиента».

По мнению экспертов, юристы, использующие такие программы, как ChatGPT или Bing Chat, рискуют предоставить компаниям, занимающимся искусственным интеллектом, данные своих клиентов для обучения и улучшения своих моделей, что может привести к нарушению правил конфиденциальности.

«Это одна из причин, по которой некоторые юридические фирмы запрещают сотрудникам использовать ChatGPT и подобные программы при работе с клиентами», — сказал Reuters партнер «Holland & Knight» Йозиас Дьюи, участвовавший в разработке внутренних программ искусственного интеллекта в своей фирме.

Статья была полезна?

Не нашли ответа? Задайте вопрос юристам

Ходунов Александр Сергеевич

Отвечу на ваши вопросы

Межтекстовые Отзывы
Посмотреть все отзывы
logo