ChatGPT ndalohet të japë këshilla mjekësore, ligjore dhe financiare pas frikës nga paditë

3 Minuta Lexim

Gjiganti i inteligjencës artificiale, OpenAI, ka ndryshuar rregullat për ChatGPT, duke e ndaluar zyrtarisht që të japë këshilla të personalizuara për çështje shëndetësore, ligjore apo financiare.

Sipas mediave ndërkombëtare, që nga 29 tetori, ChatGPT nuk do të funksionojë më si “këshilltar”, por si një mjet edukativ. Ky vendim vjen pasi kompanitë e mëdha të teknologjisë, përfshirë OpenAI, po përballen me frikën e padive gjyqësore për rastet kur inteligjenca artificiale ka dhënë këshilla të gabuara që mund të kenë pasur pasoja serioze.

Rregullat e reja: “Jo më këshilla për shëndetin, ligjin dhe paratë”
Sipas burimeve të cituara nga portali NEXTA, ChatGPT nuk do të mund të: – Përmendë më emra ilaçesh apo doza mjekësore,
– Përgatisë më modele kontratash apo padish ligjore,
– Japë këshilla investimi apo sugjerime për blerje/shitje aksionesh.
– Në vend të këshillave konkrete, ChatGPT tani do të ofrojë shpjegime të përgjithshme, duke orientuar përdoruesit të konsultohen me mjekë, avokatë apo këshilltarë financiarë të licencuar.

Ekspertët thonë se kjo masë ishte e domosdoshme, pasi AI nuk mund të analizojë pacientë, të urdhërojë analiza laboratorike apo të mbajë përgjegjësi ligjore në rast gabimi.

Rreziku i përdorimit të AI për probleme reale
Shumë përdorues kishin nisur ta trajtonin ChatGPT si një “orakull dixhital” për çdo situatë, nga diagnoza e simptomave deri te hartimi i testamentit. Por, siç vë në dukje People, modeli shpesh jep përgjigje “të sigurta, por të gabuara”.

Një shembull i përmendur: nëse dikush shkruan “kam një gungë në gjoks”, ChatGPT mund të sugjerojë rrezikun e kancerit, kur në fakt mund të bëhet fjalë për diçka krejt të padëmshme. Pikërisht këto raste kanë bërë që OpenAI të vendosë kufizime të reja.

Kufizime edhe për financat dhe ligjin
ChatGPT mund të shpjegojë se çfarë është një ETF, por nuk mund të marrë parasysh të dhënat personale si borxhet, të ardhurat apo rrezikun financiar të përdoruesit. Po ashtu, nuk duhet të përdoret për të hartuar testamente apo kontrata, pasi çdo shtet ka ligje të ndryshme dhe një mungesë e vogël, si mos-noterizimi, mund ta bëjë dokumentin të pavlefshëm.

Pse OpenAI po tërhiqet?
Sipas analistëve, Big Tech po përpiqet të mbrojë veten nga përgjegjësia ligjore dhe nga rastet kur njerëzit mund të kenë ndjekur këshilla të rrezikshme të dhëna nga AI. OpenAI tashmë e konsideron ChatGPT si një mjet ndihmës për mësim dhe kërkime, jo si një zëvendësues të profesionistëve.

Lajme të ngjashme

Shpërndaje këtë artikull