Aplikacion
Studimi i udhëhequr nga Ilia Shumailov, i Universitetit të Oksfordit dhe i botuar në revistën ”Nature”, ngre problemin e një efekti të rrezikshëm spiral, ku IA na mëson informacione të reja duke përdorur përmbajtjet që prodhojnë vetë në një rreth vicioz.
”Është një studim që vërteton në fakt, në një mënyrë shumë të saktë, shqetësimet e vjetra, pra që kanë ekzistuar që nga lindja e modeleve gjeneruese”, thekson Viviana Patti, eksperte e shkencave kompjuterike në Universitetin e Torinos.
Inteligjenca artificiale gjeneruese tani është gjithnjë e më e përhapur, duke filluar me ChatGpt, një duzinë modele të tjera shumë të njohura kanë mbërritur shpejt, të afta për të prodhuar të gjitha llojet e përmbajtjes në vetëm pak çaste, nga tekstet tek fotot dhe videot me internetin që po popullohet me shpejtësi me përmbajtje të krijuar pikërisht me algoritme.
Deri pak vite më parë, interneti mund të konsiderohej si një ”kazan” me përmbajtje të të gjitha llojeve, të besueshme dhe të tjera, por të gjitha të karakterizuara nga një element i përbashkët: ato prodhoheshin nga qeniet njerëzore.
Tani ky nuk është më rasti dhe mund të jetë gjithnjë e më pak, duke shkaktuar një ndryshim që mund të çojë në një problem të rëndësishëm.
Në fakt, IA-të mësojnë bazuar në materialet, tekstet ose fotot, të cilat u vihen në dispozicion dhe mbi të cilat janë trajnuar, dhe deri më tani ato ishin përmbajtje të prodhuara përgjithësisht nga njerëzit, për shembull faqet e Wikipedia-s ose grupe fotografish të kafshëve, por tani që interneti po popullohet me përmbajtje të krijuar nga IA, mund të ndryshojë cilësinë e asaj që mëson vetë IA.
Oficeri i policisë, 5 netë roje për të vrarë Reçin. Si e zbuloi policia. Vëllai mohon implikimin