Чат-бот

Быстро становящиеся популярными чат-боты с использованием искусственного интеллекта могут приводить пользователей к ложным выводам, выдавая вымышленные факты за истину. Это случилось с адвокатом Стивеном Шварцем из юридической фирмы Levidow, Levidow & Oberman, который использовал ИИ-чат-бота ChatGPT в рамках работы над делом своего клиента Роберто Мата, сообщил CNN.

Мата подал в суд на авиакомпанию Avianca после получения травмы в результате столкновения с сервировочной тележкой во время полёта в 2019-м году. Шварц, имеющий лицензию на адвокатскую практику в Нью-Йорке в течение более 30 лет, использовал ChatGPT для сбора данных о прошлых судебных процессах, которые бы подтвердили его дело. Однако ChatGPT предоставил ложные данные, что привело к опровержению приведённых Шварцем прецедентов. Адвокату грозит потеря лицензии за использование вымышленных фактов в своих делах.

Адвокаты Avianca из Condon & Forsyth подняли вопрос о подлинности приведённых дел, и судья Кевин Кастел Федерального округа Южного округа Нью-Йорка заявил, что как минимум шесть из них кажутся фальшивыми. Шварц заявил в письменном заявлении под присягой, что никогда раньше не использовал ChatGPT в качестве источника юридической информации и был не в курсе того, что его содержание может быть ложным, и что он сожалеет о своих действиях.

Любое использование материалов допускается только с указанием источника infopovod.ru

Поделиться
Подпишитесь на Telegram ФИА «Инфоповод»

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *