Halucynacje ChatGPT

by usrob

ChatGPT może generować absurdalne i nieprawdziwe odpowiedzi nazywane halucynacjami. Jest to niezwykle niebezpieczne zjawisko, które może doprowadzić do tragicznych konsekwencji. Przedstawiam przykłady halucynacji, staram się omówić jej przyczyny i konsekwencje. Ku przestrodze dla zbyt rozgorączkowanych entuzjastów. ______________________________________

Materiały źródłowe:

[1] https://spectrum.ieee.org/ai-hallucin…

[2] https://arxiv.org/abs/2202.03629

[3] https://arxiv.org/abs/2302.10724

You may also like