Cât de inteligent va fi impactul inteligenței artificiale asupra creativității? 

<< Imaginați-vă un computer care v-ar putea termina propozițiile, folosind o formulare mai bună a frazei; sau care utilizează un fragment de melodie pentru a compune muzică și care sună ca și cum tu ai scris-o (deși nu ai fi făcut-o niciodată); sau care rezolvă o problemă creând sute de linii de cod de computer, lăsându-vă să vă concentrați pe ceva și mai greu. Într-un fel, acel computer este doar descendentul răzătoarelor electrice și al mașinilor cu abur care au grăbit Revoluția Industrială. Dar aparține și unei noi clase de mașinării, deoarece înțelege simbolurile din limbaj, muzică și programare și le folosește în moduri care par creative. Un pic, ca un om >>, scrie The Economist

<< „Modelele de bază” care pot face aceste lucruri reprezintă o reușită în inteligența artificială, sau IA. De asemenea, ele promit o revoluție, dar aceasta va afecta activitatea de nivel înalt a creierului, pe care Revoluția Industrială nu a atins-o niciodată. Nu există garanții cu privire la ceea ce urmează – la urma urmei, IA s-a poticnit în trecut. Dar este timpul să ne uităm la promisiunea și pericolele următorului mare lucru în inteligența mașinăriilor.

Modelele de bază sunt cea mai recentă turnură a „învățării profunde” (DL), o tehnică devenită proeminentă în urmă cu zece ani și care domină acum domeniul IA. Pe baza structurii în rețea a neuronilor din creierul uman, sistemele DL sunt „antrenate” folosind milioane sau miliarde de exemple de texte, imagini sau clipuri audio. În ultimii ani, costul de creștere, în timp și bani, al antrenării sistemelor DL tot mai mari a stârnit îngrijorarea că tehnica își atinge limitele. Unii s-au îngrijorat de o „iarnă IA”. Dar modelele de bază arată că, în primul rând, construirea de DL din ce în ce mai mare și mai complexă continuă într-adevăr să deblocheze noi capacități din ce în ce mai impresionante. Nimeni nu știe unde este limita.

Modelele rezultate sunt o nouă formă de inteligență creativă, non-umană. Sistemele sunt suficient de sofisticate, atât pentru a avea o înțelegere a limbajului, cât și pentru a încălca regulile în mod coerent. Un câine nu poate râde la o glumă din New Yorker, dar un IA poate explica de ce este amuzantă – o ispravă care, sincer, îi depășește uneori pe cititorii din New Yorker. Când i-am cerut unuia dintre aceste modele să creeze un colaj folosind titlul acestui lider de piață și nimic mai mult, a venit cu coperta din imagine, pentru edițiile noastre americană și asiatică (în ediția noastră europeană, am încercat să-i smintim pe designerii noștri umani anxioși cu o copertă diferită).

Modelele de bază au câteva proprietăți surprinzătoare și utile. Cea mai ciudată dintre acestea este comportamentul lor „în curs de dezvoltare”, adică abilitățile (cum ar fi abilitatea de a obține o glumă sau de a potrivi o situație și un proverb) care apar din dimensiunea și profunzimea modelelor, mai degrabă decât din rezultatul unei activități deliberate. Așa cum o succesiune rapidă de fotografii dă senzația de mișcare, tot așa trilioane de decizii computaționale binare se contopesc într-un simulacru de înțelegere și creativitate umană fluidă care, orice ar spune filosofii, seamănă mult cu lucrurile reale. Chiar și creatorii acestor sisteme sunt surprinși de puterea lor.

Această inteligență este larg răspândită și adaptabilă. Adevărat, modelele de bază sunt capabile să se comporte ca un idiot, dar și oamenii sunt. Dacă îl întrebi pe unul cine a câștigat premiul Nobel pentru fizică în 1625, s-ar putea să sugereze Galileo, Bacon sau Kepler, fără a înțelege că primul premiu a fost acordat în 1901. Cu toate acestea, ele sunt, de asemenea, adaptabile în moduri în care IA anterioare nu fuseseră, poate pentru că la un anumit nivel există o asemănare între regulile de manipulare a simbolurilor în discipline la fel de diferite precum desenul, scrierea creativă și programarea pe computer. Această amploare indică faptul că modelele de bază ar putea fi utilizate într-o mulțime de aplicații, de la cele care ajută la găsirea de noi medicamente folosind predicții despre modul în care proteinele se pliază în trei dimensiuni, până la selectarea diagramelor interesante din seturi de date și tratarea întrebărilor deschise prin căutarea unor baze de date uriașe pentru a formula răspunsuri care deschid noi domenii de anchetă.

Este incitant și promite să aducă beneficii mari, dintre care majoritatea încă mai trebuie imaginate. Însă trezește și griji. Inevitabil, oamenii se tem că nite sisteme IA suficient de creative pentru a-și surprinde creatorii ar putea deveni dăunătoare. De fapt, modelele de bază sunt la ani-lumină de roboții ucigași sensibili dragi Hollywood-ului. Terminatorii tind să fie concentrați, obsesivi și „orbi” la consecințele mai ample ale acțiunilor lor. Prin contrast, IA de bază este confuză. În mod similar, oamenii sunt îngrijorați de cantitățile enorme de pregătire de energie pe care aceste modele le consumă și de emisiile pe care le produc. Cu toate acestea, IA-urile devin mai eficiente, iar cunoștințele lor pot fi esențiale în dezvoltarea tehnologiei care accelerează trecerea la energia regenerabilă.

O îngrijorare mai pătrunzătoare este cine controlează modelele de bază. Antrenarea unui sistem cu adevărat mare, cum ar fi Google PaLM, costă mai mult de 10 milioane USD și necesită acces la cantități uriașe de date – cu cât mai multă putere de calcul și cu cât mai multe date, cu atât mai bine. Acest lucru ridică spectrul unei tehnologii concentrate în mâinile unui număr mic de companii de tehnologie sau guverne.

Dacă este așa, atunci datele de instruire ar putea consolida și mai mult bias-urile lumii – iar asta într-un mod deosebit de sufocant și neplăcut. Ai avea încredere într-un copil de zece ani al cărui întreg simț al realității s-a format prin navigarea pe internet? Ar putea fi recrutate IA-uri formate de chinezi și americani într-o luptă ideologică pentru a „îndoi” mințile? Ce se va întâmpla cu culturile care sunt slab reprezentate online?

Și apoi este problema accesului. Pentru moment, cele mai mari modele sunt restricționate, pentru a preveni utilizarea lor în scopuri nefaste, precum generarea de știri false. OpenAI, un startup, și-a proiectat modelul, numit dall-e 2, în încercarea de a împiedica producerea de imagini violente sau pornografice. Firmele au dreptate să se teamă de abuz, dar cu cât aceste modele sunt mai puternice, cu atât accesul mai limitat la ele creează o nouă elită. Este puțin probabil ca auto-reglementarea să rezolve dilema.

Aduceți revoluția

De câțiva ani, s-a spus că automatizarea bazată pe inteligență reprezintă o amenințare pentru oamenii în joburi repetitive, de rutină și că artiștii, scriitorii și programatorii erau mai în siguranță. Modelele de bază contestă această presupunere. Dar ele arată, de asemenea, cum IA poate fi folosit ca un partener de software pentru a crește productivitatea. Această inteligență a mașinăriei nu seamănă cu genul uman, dar oferă ceva cu totul diferit. Bine manipulată, este mai probabil să completeze umanitatea decât să o uzurpe. >>

Lasă un răspuns

Completează mai jos detaliile tale sau dă clic pe un icon pentru a te autentifica:

Logo WordPress.com

Comentezi folosind contul tău WordPress.com. Dezautentificare /  Schimbă )

Poză Twitter

Comentezi folosind contul tău Twitter. Dezautentificare /  Schimbă )

Fotografie Facebook

Comentezi folosind contul tău Facebook. Dezautentificare /  Schimbă )

Conectare la %s