Miért rossz ötlet ChatGPT-vel írni az YMYL tartalmakat?

Ezért ne használj ChatGPT-t az YMYL tartalmakhoz

<p style="text-align:justify">A mesterséges intelligencia egyre több teret hódít magának az online marketing világában. Egyre több cég egészíti ki SaaS kínálatát AI funkciókkal, a leghíresebb azonban továbbra is a ChatGPT, amit sok tartalomkészítő előszeretettel használ munkájában.</p> <p>Érdemes azonban óvatosnak lenni az ilyen technológiákkal, ugyanis a ChatGPT sem tökéletes, és hajlamos olyan hibákat véteni, amelyek rossz esetben akár árthatnak is az olvasóknak – főleg, ha jogi, egészségügyi vagy pénzügyi, tehát YMYL témákról van szó.</p> <p>Lássuk, hogy miért nem érdemes ChatGPT-t használni az YMYL tartalmak komplett elkészítéséhez.</p>

1. A ChatGPT gyakran téved

A ChatGPT ijesztő magabiztossággal közöl hibás információkat a felhasználókkal. Az ember feltesz egy kérdést, amire kap egy választ, de semmi sem garantálja, hogy a visszakapott információk helyesek is.

Ez különösen akkor veszélyes, ha jogi, pénzügyi vagy egészségügyi (tehát YMYL) tartalmakról van szó. Az embereknek szakmailag precíz, valós tényekre alapozott tanácsokra van szükségük problémáik megoldásához, legyen az egy jogi kérdés, egy sérülés kezelése stb.

A ChatGPT algoritmusa létező adatokban fellelhető minták alapján működik, és ezek az adatok elavultak és pontatlanok lehetnek.

Minden AI által létrehozott (legyen az ChatGPT vagy más eszköz műve) tartalmat alaposan ellenőrizni kell a pontosság érdekében. Ez persze hosszadalmas feladat lehet, ami felemészti majd az eszközök használatával megspórolt idő egy részét.

 

2. A ChatGPT nem rendelkezik rálátással, kreativitással és mélységgel

Még ha egy nagyon pontos parancsot is adsz neki, amiben részletesen leírod a márka hangnemét, célközönségét stb., akkor sem felétlenül hoz majd létre olyan tartalmakat, mint egy emberi szerző.

Ez részben annak köszönhető, hogy a ChatGPT-nek nincsenek önálló gondolatai vagy eredeti ötletei. Kizárólag azokból az adatokból képes dolgozni, amikkel betanították, amelyek természetesen mind létező tartalmak. Képtelen tehát a valódi egyediségre.

Továbbá, még ha sikerül is némileg eredeti tartalmakat létrehoznia, akkor sem mindig tartja meg ugyan azt a színvonalat. Ugyan az a parancs egészen más eredményt hozhat a következő nap folyamán.

A ChatGPT továbbá nem rendelkezik valódi személyes tapasztalatokkal, amiket beleszőhet a mondanivalójába, hogy hatni tudjon az olvasók érzelmeire. Ez egy nagyon fontos taktika sok ügyvédi iroda stratégiájában.

 

3. Az AI tartalmak tulajdonjoga nem mindig tisztázott

Mivel a ChatGPT csak meglévő adatok alapján képes dolgozni, ezek tartalmak már máshol is fellelhetők lehetnek az interneten – ha nem eredeti anyagokként, akkor más, ChatGPT által létrehozott cikkek formájában.

Mi van akkor például, ha két cég egy aktuális trendet szeretne megcélozni, ezért szinte azonos parancsot adnak az eszköznek? Ha a ChatGPT szinte azonos szöveget is generál nekik, akkor melyiküké lesz az „eredeti”? Ki a „tulajdonosa”?

Felmerül tehát az ironikusan jogi kérdés, hogy vajon lopás-e az ilyen eszközök és tartalmak használata. Egy ügyvédi irodának például különösen oda kell figyelnie az ilyesmikre, hiszen nincs kínosabb annál, mint amikor egy jogi szakértő kap szerzői jogi felszólítást egy tartalom eltávolítására.

 

4. A ChatGPT tartalmai elfogultak lehetnek

A ChatGPT tartalmaiban elfogult vélemények jelenhetnek meg, hiszen létező, potenciálisan részrehajló tartalmak alapján dolgozik.

A ChatGPT által felhasznált források nem nyilvánosak, ezért nem is lehet tudni, hogy mennyire szűrik bennük az elfogultságot és a szakmai pontosságot.

Ennek az az eredménye, hogy az eszköz által létrehozott szövegek konkrét nézőpontokat reflektálhatnak:

  • Ha a betanításhoz használt adatok nemi aránytalanságokat tartalmaznak, az eszköz elfogult eredményeket generálhat. A nemi jellegű témákban sztereotípiákra alapozhatja az „érvelését”.
  • A ChatGPT faji és etnikai sztereotípiákat is beleszőhet mondanivalójába, illetve lekezelően fogalmazhat bizonyos népcsoportokkal kapcsolatban.
  • Olyan tartalmakat generálhat bizonyos társadalomgazdasági csoportokról, amelyek feltételezéseken vagy pontatlan információkon alapszanak.
  • A ChatGPT több hangsúlyt fektethet bizonyos kulturális nézőpontokra. Az eszköz nem feltétlenül képes értelmezni a sokszínű kulturális kontextusokat, ami elfogult tartalmakat eredményezhet.

 

5. A ChatGPT nem képes az interneten ellenőrizni az információkat

A ChatGPT egy hatalmas adatbázis alapján dolgozik ugyan, nem ismeri az összes létező témát és iparágat. E mellett nem képes végiglapozni az internetet, hogy új információkat gyűjtsön, vagy ellenőrizni tudja meglévő tudástárát.

Továbbá nem biztos, hogy elegendő tudással rendelkezik egy kevésbé ismert témakörben, hogy precízen és érthetően el tudja magyarázni azt célközönségednek. Egy összetett jogi eljárást vagy egy orvosi szakkifejezést például valószínűleg képtelen kifejteni.

Egy szerző ezzel szemben megannyi tudományos publikációhoz, saját dokumentumhoz és friss szakmai adatokhoz is hozzáfér, illetve kikérheti más szakemberek véleményét egy komplex témában. Egy gondolkodó személy mindent megtehet annak érdekében, hogy meggyőződjön tartalmai pontosságáról.

Gyakori kérdések