Lumea este sfîșiată zilele astea de războaiele culturale / ideologice (“culture wars”). Unul din cele mai vizibile astfel de conflicte sociale îl reprezintă disputa în jurul drepturilor minorităților sexuale. Vestita patimă LGBT.

Teoretic această zbatere este despre drepturile omului. Practic este despre lupta pentru putere. Dar mai ales este despre tensiunea filosofică dintre natură și cultură. Este sexul oare o realitate obiectivă, biologică, sau un construct social mai fluid decît baza biologică? Apriga dispută sex vs gender.

Militanții LGBT susțin că este un construct social. Poți să alegi să fii femeie sau bărbat, indiferent de bagajul de gonade pe care l-ai primit la naștere în mod aleator. Cromozomul X, cromozomul Y. Tehnologia și decizia ideologică pot schimba lucrurile. Mă hotărăsc să fiu bărbat sau femeie. Stă în puterea mea, în voința mea. Dați bisturiul încoace să rezolvăm lucrurile.

Vehemența LGBT e unul din elementele esențiale al tensiunii actuale dintre progresiști și conservatori, dintre tefelei și medievali, dintre sorosiști și suveraniști.

Nu întîmplător, altă temă importantă a acestui conflict social o reprezintă etnicitatea și derivatele sale ideologice / politice: patriotismul, naționalismul, suveranismul, autohtonismul.

Progresiștii insistă că e un construct cultural (vezi Benedict Anderson, Imagined Communities). Conservatorii insistă că etnicitatea vine să răspundă unor nevoi biologice ale speciei umane, rezervor de fidelitate supra-genetică existent cu mult timp înainte de modernitate.

De ce sînt atît de importante și stîrnesc atît de multe patimi aceste discuții? De ce e importantă sexualitatea? Dar etnia? Dar rasa?

Cheia rezidă în vechea, nobilă temă “natură vs cultură. Și ale sale declinări. “Înnăscut vs dobîndit”. “Primordial vs Construit”.

Hai să rămînem deocamdată, pentru simplitatea discuției, doar la sexualitate. O să vedeți de ce, în curînd. Puțintică răbdare, că Palada scrie mult.

Hai să căutăm consecințele logice ale acestei discuții. Plecăm de la întrebarea de simț comun. De ce există bărbați și femei pe lumea asta? Răspuns de simț comun. Pentru reproducere.

Așa s-au așezat lucrurile în biologie de vreo unu – două miliarde de ani încoace. Pe parcursul timpurilor geologice, natura a generat această strategie evolutivă de maximizare a succesului de supraviețuire și de reproducere (fitness evolutiv).

Specia umană, spre deosebire de speciile asexuate, bacteriile, să zicem, își maximizează capacitatea de supraviețuire prin reproducere sexuată. O femeie și un bărbat fac copii. De preferat cel puțin doi, ca să se reproducă specia de la o generație la alta. Vezi discuția privind rata totală de fertilitate și magicul său pragul de 2,1.

Ce stă în spatele acestei zbateri biologice?

Simplu. Supraviețuirea. Singurul lucru cu adevărat important pe lumea asta. Să fie bine, să nu fie rău. Să trăim, să nu murim. Atît la nivel de individ. Dar mai ales de specie.

E vorba de nevoia unității distincte de informație de a se păstra, de a se perpetra de-a lungul timpului. Unitatea de informație, adică gena, codul ADN, care își folosește suportul biologic, adică organismul, pentru a merge mai departe, țop-țop dintr-o generație în alta. Poate ați auzit de conceptul de “genă egoistă” propus de biologi de prin anii ’50 încoace și popularizat de Richard Dawkins. Sau poate nu.

Hai să forțăm gîndirea, să intrăm în zona speculativă.

Cînd am putea să scăpăm naibii de această bătaie de cap? Să ne dezbărăm de sex și de biologie? Să ne lepădăm de această povară plină de zeamă, cum și-ar dori ideologii LGBT? Sau măcar de partea neplăcută, aia cu reproducerea, cu procreerea?

From procreation to recreation. Hai să rămînem doar cu partea distractivă, cu fun-ul penetrativ unde nu contează dacă ești bărbat, femeie sau ornitorinc, gaură să fie. Hai să externalizăm procreerea, că tot ne place nouă externalizarea.

Cînd s-ar putea ca unitatea de informație care ne definește existența, gena, atotputernica genă, să se dispenseze de povara enervantă a reproducerii sexuale, de prostia asta primitivă cu bărbați și cu femei, cu placentă graviditate nouă luni naștere sînge și chin?

Răspuns de simț comun. Atunci cînd am putea să ne reproducem în afara acestei limitări.

Cum?

Fie reproducere biologică, dar dincolo de decizia individuală. În marile cuve biologice distopice gîndite deja încă din 1931 de către Aldous Huxley în Brave New World.

(Nu întîmplător acest strălucitor scriitor britanic provenea dintr-o la fel de strălucită familie de biologi: bunicul Thomas Huxley, “buldogul de pază al lui Darwin”, frații Julian Huxley și Andrew Huxley.)

Fie, gînd și mai îndrăzneț, să scăpăm de tot de trup. Decorporalizarea.

Să ne dezbărăm complet de suportul material. Reproducere asexuată și imaterială, doar la nivel de biți, în marile cuve informatice ale mașinăriilor suficient de puternice care să ușureze omul de trupul său muritor, prea muritor.

Ei bine, gîndesc progresiștii, tînjesc tefeleii, atunci cînd ne vom lepăda de procreerea biologică în actualul său format primitiv, atunci va veni acea binecuvîntată vreme cînd ne putem lepăda de desueta distincție dintre femeie și bărbat.

Genul va învinge asupra sexului. Vom putea avea libertatea să alegem neîngrădiți. Să fie o opțiune, nu o pecete primită de la naștere. Hai să visăm. Hai să pregătim acele timpuri. Hai să îndrăznim. Hai să ne educăm deja copiii că sexul poate fi o decizie, nu un dat al firii.

Trăiască genul. Jos cu sexul cel murdar și cu scîrbavnica nevoie de a face copii. O să-i facem, dar în cuve sau prin calculatoare. Let’s externalize procreation. Let’s prepare for the post-sexual Garden of Eden.

Sună science-fiction, nu-i așa? Da, așa este. E fix una din marile teme ale literaturii science-fiction. S-a tot scris și răsscris pe acest subiect.

Problema este că această gîndire este science-fiction pînă nu mai este science-fiction.

Fiți atenți aici. Beliți ochii, căci altminteri s-ar cam prea putea să beliți viitorul.

Nebăgat în seamă de mulți dintre noi, acest lucru se întîmplă fix acum, fix în zilele noastre. Fix sub ochii noștri însetați de patimă ideologică.

Doar că nu se întîmplă cu cine se pregătește, ci cu cine se nimerește. Nu cu oamenii, ci cu mașinile.

Ați auzit de inteligența artificială?

Ați auzit de singularitate?

Ați auzit de temerea unora că, în actualul ritm exponențial de dezvoltare a învățării mașinilor (machine learning), s-ar cam prea putea ca, în curînd, să ajungem la acel neplăcut moment în care inteligența artificială să devină într-atît de inteligentă încît să-și dorească autonomia, dincolo de om, poate chiar în contra omului?

Să dezvolte scopuri proprii, totalmente distincte de scopurile noastre umane, această specie care își dorește supraviețuirea și s-ar cam prea putea să n-aibă parte de ea?

Sună tot science-fiction, evident. Doar că deja nu mai e science-fiction. Repet: DEJA nu mai e science fiction.

Vezi primul link de la bibliografie, articolul din publicația Vox. Un articol pe care insist să-l citiți pînă la capăt, cu creionul în mînă și cu morcovul adînc înfipt în partea cealaltă.

E deja, repet, DEJA o temere din ce întemeiată. Exprimată nu de vreun părerolog conspiraționist și prăpăstios și șoșonist de prin vreun cotlon mediocru al pseudo-intelectualității dornică de tuneluri dacice prin Bucegi.

E o preocupare din ce în ce mai îngrijorată a minților foarte, foarte inteligente care se află în miezul dezvoltării inteligenței artificiale. Pe meleagurile cele mai capitaliste și mai californiene și mai îndrăznețe ale acestei planete.

Hai să vă citez din respectivul articol, că prea e dureros.

What’s the worst that could happen?

So AI is scary and poses huge risks. But what makes it different from other powerful, emerging technologies like biotechnology, which could trigger terrible pandemics, or nuclear weapons, which could destroy the world? […] 

“The worry is that if we create and lose control of such agents, and their objectives are problematic, the result won’t just be damage of the type that occurs, for example, when a plane crashes, or a nuclear plant melts down — damage which, for all its costs, remains passive,” Joseph Carlsmith, a research analyst at the Open Philanthropy Project studying artificial intelligence, argues in a recent paper.

“Rather, the result will be highly-capable, non-human agents actively working to gain and maintain power over their environment —agents in an adversarial relationship with humans who don’t want them to succeed. Nuclear contamination is hard to clean up, and to stop from spreading. But it isn’t trying to not get cleaned up, or trying to spread — and especially not with greater intelligence than the humans trying to contain it.”[…]

How do we get from “extremely powerful AI systems” to “human extinction”? “The primary concern [with highly advanced AI] is not spooky emergent consciousness, but simply the ability to make high-quality decisions.” Stuart Russell, a leading AI researcher at UC Berkeley’s Center for Human-Compatible Artificial Intelligence, writes.

By “high quality,” he means that the AI is able to achieve what it wants to achieve; the AI successfully anticipates and avoids interference, makes plans that will succeed, and affects the world in the way it intended.  

This is precisely what we are trying to train AI systems to do. They need not be “conscious”; in some respects, they can even still be “stupid.” They just need to become very good at affecting the world and have goal systems that are not well understood and not in alignment with human goals (including the human goal of not going extinct). […]

It might seem bizarre, given the stakes, that the industry has been basically left to self-regulate. If nearly half of researchers say there’s a 10 percent chance their work will lead to human extinction, why is it proceeding practically without oversight?

It’s not legal for a tech company to build a nuclear weapon on its own. But private companies are building systems that they themselves acknowledge will likely become much more dangerous than nuclear weapons.

Dacă ați avut răbdarea și capacitatea intelectuală să citiți cu atenție, pînă la capăt acest citat in extenso,

(da, știu, sînt rău: implicit v-am cam făcut proști; în fond și la urma urmei, subiectul discuției este “inteligența” și “supraviețuirea”; nu prea poți să supraviețuiești dacă nu ești inteligent)

…deci dacă ați citit pînă la capăt,

veți vedea că, ascuns printre rînduri, găsim formulat implicit același subiect de care vă pomeneam la începutul articolului, cînd vă spuneam despre războaiele culturale și despre tefeleii progresiști pro-LGBT și despre reproducerea sexuată la oameni.

E vorba despre supraviețuire. Despre supraviețuirea speciei.

Iată felul cumva contraintuitiv, dar cît se poate de logic unde cele două subiecte complet distincte, LGBT și AI, se întîlnesc, la capătul curcubeului (pun intended).

Cînd discutăm despre lepădarea de sexualitate, subiectul implicit al elgebeteilor, de fapt în spate zace întrebarea: putem oare să perpetuăm specia, să-i asigurăm supraviețuirea chiar și fără zgomotosul, obositorul și de multe ori enervantul nărav al sexului?

Cînd discutăm despre inteligența artificială, e vorba de fapt despre aceeași discuție. Cum se reproduce inteligența artificială? Se va putea reproduce cumva și singură, fără oameni? Care sînt consecințele acestei autonomii reproductive pentru specia umană? Putem asigura supraviețuirea speciei cînd însăși noi, proștii de noi, exaltații de noi, construim o altă specie mai inteligentă decît noi care s-ar putea să ne șteargă de pe fața pămîntului?

Cuvîntul cheie este supraviețuire. Și, inevitabil, reproducerea. Căci supraviețuirea se face pe bază de reproducere. Specia supraviețuiește pentru că indivizii se reproduc. Indiferent cum. Asexuat, precum bacteriile. Sexuat, precum oamenii în momentul de față. Dincolo de sexualitate, poate chiar deztrupat, precum și-ar dori elgebeteii tefeliști și progresiști în visele lor umede și science-fiction (deocamdată).

Hopa. Și aici, în această serie logică, ajungem la întrebarea cu adevărat importantă. Cum se reproduce inteligența artificială?

Păi simplu. Păi deocamdată prin intermediul oamenilor.

Noi am creat-o, cu mințile noastre. Noi îi punem deocamdată la dispoziție cuvele informatice în care generația n de AI să devină generația n + 1. Aceste cuve au un suport material. Tranzistori plăci de bază calculatoare servere. Curent electric, generat de niște mașinării create, menținute și controlate de către oameni.

Vestitul suport fizic fără de care informația nu poate exista. (By the way. Asta e una din marile discuții filosofice în rîndul fizicienilor: poate informația să existe fără materie?!)

Deci ajungem, în cele din urmă, la miezul problemei. Relația aflată într-o continuă tensiune dintre informație și suportul său material.

Hai să ne dorim să transformăm specia umană, să ne lepădăm de actualul suport material sexuat de reproducere a speciei. Beyond sex. Hai să ne gîndim ce se întîmplă cînd inteligența artificială ar putea să înceapă să se gîndească să se lepede de actualii ei stăpîni, oamenii. Beyond Humanity.

Cînd ar putea inteligența artificială să își atingă cu adevărat autonomia și să devină o primejdie pentru omenire? Căci, pentru moment, depinde de omenire. Doar noi îi dăm curent să existe.

Răspunsul logic este simplu. Atunci cînd va ajunge să controleze suportul material al existenței sale. Adică sălile de calculatoare, unde ea “trăiește” în marile cuve informatice și unde în momentul de față oamenii iau decizii. Inclusiv tot ce mișcă împrejur pentru a le asigura mentenanța.

Dar, mai ales și mai ales, inteligența artificială își va atinge autonomia existențială atunci cînd va putea să controleze sursele de energie. Și producere. Și mentenanță.

Adevărata discuție despre pericolul inteligenței artificiale la adresa speciei umane este despre capacitatea acesteia de a controla, de manieră concurențială, chiar adversativă, suportul material prin intermediul căreia există, inclusiv mai ales sursele de energie necesare pentru această existență.

Cînd pune AI mîna pe sala de control a calculatoarelor? Dar pe centralele electrice? Și mai ales, cum? Cînd va reuși AI să ocupe trupul mecanic al roboților pe care îi construim acum, să nu mai asculte de noi, ci de ea / ele?

Întrebările continuă. Cum putem opri acest scenariu apocaliptic, deja cumva întrezărit în lucrări science-fiction cum ar fi Terminator? Începem să ne gîndim la el?

Dacă marile minți luminate ale miezului de complexitate numit știința calculatoarelor și Silicon Valley și DoD au început să o facă, deja nu mai e science-fiction. E doar decît unul din posibilele noastre viitoruri nasoale. La fel de plauzibilă catastrofă precum războiul atomic sau dezastrul climatic.

O variantă disruptivă de viitor pe care noi, românii care am inventat tunelurile pe sub Bucegi încă de pe vremea dacilor, nu sîntem în stare să-i acordăm atenția cuvenită, ca niște buni mediocri primitivi ce ne aflăm. Căci sîntem niște băștinași primitivi și medievali, dar mai ales mediocri. Prea puțin complecși în priceperea noastră intelectuală pentru a putea împinge mintea pînă într-acolo.

În fond și la urma urmei, nici nu prea avem de ce. Și săraci, și proști. Fix cum e mai bine. Nu deținem nici mijloacele tehnologice necesare pentru a ne pune astfel de întrebări. Nici îndrăzneala intelectuală pentru a considera un asemenea subiect drept pertinent.

Dacă nu sîntem noi în stare încă să construim autostrăzi ori să scăpăm de veceurile din fundul curții, cum Dumnezeu să avem priceperea să ne ducem cu gîndul înspre astfel de preocupări specifice celui mai înalt nivel de complexitate socială atins de umanitate în momentul de față?

Lasă, că o să fie bine. Se gîndesc americanii și chinezii și pentru noi.

Între timp, nu uitați cuvintele cu adevărat importante. Meditați la ele. Ele ne vor defini viitorul. Dacă nu al nostru, cu siguranță al copiilor noștri.

Sex. Informație. Suport material. Carbon-based vs non-carbon-based intelligence. Surse de energie. Control. Putere. Conflict.

The stuff the bad dreams are made of.

Ghinion.

* * *

Bibliografie, că poate aveți nevoie.

La nivel de popularizare a științei, că mai mult nu e cazul, deocamdată.

  1. Potențialul de primejdie al inteligenței artificiale.

În primul rînd, neapărat de citit, articolul din Vox din care deja v-am citat in extenso. Despre felul în care inteligența artificială s-ar cam prea putea să devină mai inteligentă și mai primejdioasă decît prevede Codul Fiscal al Existenței Umane

Vox: Artificial Intelligence and the Existential Risk of Human Extinction

https://www.vox.com/the-highlight/23447596/artificial-intelligence-agi-openai-gpt3-existential-risk-human-extinction

  1. Inteligența artificială. Singularitate

Artificial intelligence

https://en.wikipedia.org/wiki/Artificial_intelligence

Singularitate

https://en.wikipedia.org/wiki/Technological_singularity

Machine learning

https://en.wikipedia.org/wiki/Machine_learning

  1. Sex vs gen. Biologia reproducerii

Sex vs Gen

https://en.wikipedia.org/wiki/Sex_and_gender_distinction

Construcția socială a genului

https://en.wikipedia.org/wiki/Social_construction_of_gender

Evoluția reproducerii sexuale

https://en.wikipedia.org/wiki/Evolution_of_sexual_reproduction

Fitness evolutiv

https://en.wikipedia.org/wiki/Fitness_(biology)

Rata totală de fertilitate

https://en.wikipedia.org/wiki/Total_fertility_rate

Richard Dawkins, Selfish Gene

https://en.wikipedia.org/wiki/Gene-centered_view_of_evolution

Aldoux Huxley, Brave New World

https://en.wikipedia.org/wiki/Brave_New_World

  1. Etnicitate

Etnicitate: Primordialism vs Instrumentalism

https://journals.scholarpublishing.org/index.php/ASSRJ/article/view/4394

Benedict Anderson, Imagined Communities

https://en.wikipedia.org/wiki/Imagined_Communities