Amerikos mokslo plėtros asociacijos (AAAS) mokslininkai įspėja mus apie galimą pavojų, kurį kelia dirbtinio intelekto (AI - artificial intelligence) modeliai, pavyzdžiui, "ChatGPT", "DALL-E" ir "Midjourney". Šie modeliai, jų nuomone, gali skleisti nepatikimą ir subjektyvią informaciją, darydami įtaką mūsų įsitikinimams.
Generaciniai dirbtinio intelekto modeliai kuria naują turinį, remdamiesi jau turimais duomenimis. Jie gali generuoti tekstus, vaizdus, garso ar vaizdo medžiagą, kuri gali būti naudojama įvairiose srityse, įskaitant švietimą, pramogas ir mokslinius tyrimus. Tačiau tuo pačiu metu jų naudojimas gali kelti grėsmę, jei jie sukuria netikslią ar šališką informaciją, klaidindami žmones.
Straipsnyje, kurio autoriai - mokslininkai Celeste Cid ir Abeba Birhane, aptariami trys pagrindiniai psichologijos principai, padedantys suprasti, kodėl generaciniai dirbtinio intelekto modeliai gali taip stipriai paveikti mūsų įsitikinimus:
Mokslininkai ragina daugiau dėmesio skirti sugeneruotų dirbtinio intelekto modelių dizainui, nes jie labiau orientuoti į informacijos paiešką ir teikimą. Mokslininkai siūlo įvertinti šių modelių poveikį žmogaus įsitikinimams ir prietarams prieš ir po generacinio dirbtnio intelekto poveikio. Apklausa tampa ypač aktuali, atsižvelgiant į didėjantį šių sistemų naudojimą ir integraciją į mūsų kasdienį technologijų pasaulį.
Komentarai