Newyorský advokát Steven A. Schwartz, ktorý vo firme pracuje 30 rokov, povedal, že „nevedel, že obsah ChatGPT môže byť nepravdivý“.
Newyorský advokát si v rámci výskumu právnych prípadov pomohol nástrojom ChatGPT, ktorý funguje na princípe umelej inteligencie. Sudca však zistil, že niektoré z prípadov neexistujú. Advokát, ktorý tvrdí, že „nevedel, že jeho obsah môže byť nepravdivý“, bude vypovedať pred súdom.
Prípad sa týkal muža, ktorý žaloval leteckú spoločnosť v súvislosti s údajným ublížením na zdraví, píše BBC. Jeho právny tím predložil spis, v ktorom citoval niekoľko predchádzajúcich súdnych prípadov v snahe dokázať, prečo by sa mal prípad posunúť ďalej.
Právnici leteckej spoločnosti sa však neskôr sudcovi sťažovali, že nemôžu nájsť niekoľko prípadov, na ktoré sa v spise odvolávali. „Zdá sa, že šesť z predložených prípadov sú falošné súdne rozhodnutia s falošnými citáciami,“ napísal sudca Castel v príkaze, v ktorom požadoval od právneho tímu muža vysvetlenie.
Advokát mal 30-ročnú prax
Napokon vyšlo najavo, že rešerše nevypracoval Peter LoDuca, právny zástupca žalobcu, ale jeho kolega z tej istej advokátskej kancelárie Steven A. Schwartz, ktorý je advokátom už viac ako 30 rokov. Schwartz sa priznal, že použil ChatGPT na vyhľadanie podobných prípadov z minulosti. LoDuca vraj o tomto čine nevedel.
Advokát Steven A. Schwart povedal, že „veľmi ľutuje“, že sa spoliehal na chatbot, ktorý podľa vlastných slov nikdy predtým nepoužil na právny výskum, a „nevedel, že jeho obsah môže byť nepravdivý“. Sľúbil, že v budúcnosti nikdy nebude používať umelú inteligenciu na „doplnenie“ svojho právneho výskumu „bez absolútneho overenia jeho pravosti“.
ChatGPT, ktorý spustili v novembri 2022, dokáže odpovedať takmer na akúkoľvek otázku a napodobniť ľudský jazyk. Ako svoju databázu využíva údaje z internetu do roku 2021. Jeho odpovede sú stále nepresné a ľudia sa obávajú, že by mohol šíriť aj dezinformácie.