94
ChatGPT może generować absurdalne i nieprawdziwe odpowiedzi nazywane halucynacjami. Jest to niezwykle niebezpieczne zjawisko, które może doprowadzić do tragicznych konsekwencji. Przedstawiam przykłady halucynacji, staram się omówić jej przyczyny i konsekwencje. Ku przestrodze dla zbyt rozgorączkowanych entuzjastów. ______________________________________
Materiały źródłowe:
[1] https://spectrum.ieee.org/ai-hallucin…