결제 가능 수단 안내 틴타임즈 단어 test 틴타임즈 동영상 강의 TEPS 모의고사
기사보기
Notice (8): Undefined variable: newversion [CORE/lib.times/views/samples/newspaper.ctp, line 65]');" class="s_news_a">단어학습 Notice (8): Undefined variable: newversion [CORE/lib.times/views/samples/newspaper.ctp, line 70]');" class="s_news_a">속청학습 평가문제 Notice (8): Undefined variable: newversion [CORE/lib.times/views/samples/newspaper.ctp, line 76]');" class="s_news_a">단문학습 Notice (8): Undefined variable: newversion [CORE/lib.times/views/samples/newspaper.ctp, line 81]');" class="s_news_a">받아쓰기 Notice (8): Undefined variable: newversion [CORE/lib.times/views/samples/newspaper.ctp, line 86]');" class="s_news_a">퍼즐스터디 ENIE학습
워드팁 해석
integration 통합 / particularly 특히 / confront 직면하다, 맞서다 / attorney 변호사 / submit 제출하다 / fabricated 조작된, 꾸며낸 / reference 언급, 참고 / fictitious 가상의, 허구의 / citation 인용(문) / proceeding 소송 절차, 진행 / concede 인정하다 / reiterate 반복해서 말하다, 재차 강조하다 / verification 확인, 검증 / contempt 모독, 경멸 / prosecute 기소하다 / pervert 왜곡하다 / imprisonment 투옥, 감금 / accountability 책임 / efficiency 효율(성) / oversight 감독, 관리
닫기
인공지능은 데이터 분석, 법률 조사, 문서 초안 작성과 같은 복잡한 업무를 돕는 강력한 전문 도구가 되었다.
하지만 AI의 급격한 통합은 특히 부정확한 내용이 법원과 같은 중요한 기관에 도달했을 때 심각한 위험을 드러냈다.


8월 13일, 호주 빅토리아 주 대법원이 이러한 실패에 직면했다.
고위급 변호사이자 왕실 고문 변호사인 리시 나스와니는 살인 재판 중에 조작된 인용문과 가상의 판결문을 포함한 서류를 제출했다.
이 서류들은 AI 도구로 생성되었으며, 법원에 제출되기 전에 충분히 검토되지 않았다.


제임스 엘리엇 판사 밑에서 일하는 사무원들은 공식 데이터베이스에서 인용문을 확인하려 했지만 해당 사건에 대한 기록을 찾을 수 없자 오류를 발견했다.
추가 검토 후, 변호인 측은 인용문들이 조작되었음을 인정했다.
이러한 사실이 드러나면서 소송 절차는 24시간 동안 중단되었다.
나스와니는 나중에 공식 사과문을 발표하며 변호인 측의 정당한 주의 의무 부족을 인정했다.


8월 14일, 엘리엇 판사는 공개 법정에서 이 사건을 언급하며 일련의 사건들이 용납할 수 없는 일이라고 말했다.
그는 법적 절차에 사용되는 모든 내용이 정확하고 신뢰할 수 있어야 한다고 강조했고, AI로 생성된 모든 자료는 독립적인 검증이 필요하다고 재차 말했다.
그는 또한 법률 업무에서의 책임 있는 AI 사용에 대한 법원의 기존 정책을 언급했다.


빅토리아 주의 사례는 더 광범위한 패턴의 일부이다.
2023년, 미국의 한 연방 판사는 ChatGPT가 생성한 허구의 판례에 의존한 소송 서류를 제출한 두 변호사와 그들의 로펌에 벌금을 부과했다.
그해 말, 도널드 트럼프의 전 개인 변호사 마이클 코헨을 대리하는 변호사들도 비슷한 AI 관련 오류가 포함된 서류를 제출했다.


영국에서도 우려가 제기되었다.
2024년 6월 21일, 영국 고등법원의 빅토리아 샤프 판사는 허위 법률 자료를 제출하는 것은 법정 모독에 해당할 수 있다고 경고했다.
더 심각한 경우, 사법 방해 행위로 기소될 수 있으며, 이는 최고 종신형에 처할 수 있는 형사 범죄라고 그녀는 말했다.


이 사건들은 기술 혁신과 직업적 책임 사이의 커지는 긴장을 강조한다.
AI가 효율성을 높이고 자원에 대한 접근을 확대할 수 있지만, 전문가들은 AI가 인간의 판단, 윤리적 책임, 또는 철저한 사실 확인을 대체할 수는 없다고 강조한다.
정확성과 신뢰로 정의되는 분야에서는, 감독이 확고히 인간의 손에 남아 있어야 한다.

닫기
[1246호] AI Errors in Court Filings Spark Warnings on AI Risks
AI Errors in Court Filings Spark Warnings on AI Risks0Artificial intelligence has become a powerful tool in professional settings, assisting with complex tasks such as data analysis, legal research, and drafting documents. But its rapid integration has also revealed serious risks, particularly when inaccurate content reaches critical institutions like the courts.

On Aug. 13, the Supreme Court of Victoria in Australia confronted such a failure. Rishi Nathwani, a senior defense attorney and King’s Counsel, submitted documents during a murder trial that contained fabricated quotations and references to fictitious judicial rulings. The documents had been generated by an AI tool and were not fully checked before being presented in court.

Clerks working for Justice James Elliott discovered the errors when they attempted to verify the citations in official databases but found no record of the cases. After further review, the defense acknowledged the citations were fabricated. The revelation halted proceedings for 24 hours. Nathwani later issued a formal apology, conceding the defense’s lack of due diligence.

On Aug. 14, Justice Elliott addressed the incident in open court, describing the sequence of events as unacceptable. He emphasized that all content used in legal proceedings must be accurate and trustworthy and reiterated that any AI-generated material requires independent verification. He also cited the court’s existing policy on responsible AI use in legal practice.
AI Errors in Court Filings Spark Warnings on AI Risks7
The case in Victoria is part of a broader pattern. In 2023, a federal judge in the United States fined two attorneys and their firm after they filed briefs that relied on fictitious case law generated by ChatGPT. Later that year, lawyers representing Michael Cohen, Donald Trump’s former personal attorney, submitted filings that contained similar AI-related errors.

Concerns have also been raised in the United Kingdom. On June 21, 2024, British High Court Justice Victoria Sharp warned that presenting false legal material could amount to contempt of court. In more severe cases, she said, it may be prosecuted as perverting the course of justice, a criminal offense carrying a maximum sentence of life imprisonment.

The incidents underscore a growing tension between technological innovation and professional accountability. While AI can enhance efficiency and broaden access to resources, experts stress that it cannot replace human judgment, ethical responsibility, or thorough fact-checking. In fields defined by accuracy and trust, oversight must remain firmly in human hands.



Sean Jung
R&D Division Director
teen/1757053434/1613367592
 카카오톡 채널 채팅하기 버튼