joi, 10 aprilie 2014

Cum vor disparea oamenii?



Cum vor disparea oamenii?

Care sunt amenintarile globale impotriva umanitatii? Suntem la un pas de o neasteptata extinctie?

 O echipa internationala formata din oamenii de stiinta,matematicieni si filosofi incearca sa investigheze in cadrul Univrsitatii Oxford pentru Viitorul Umanitatii cele mai mari pericole.
Si declara intr-un studiu numit Existential Risk as a Global Priority ca legiuitorii internationali trebuie sa fie foarte atenti la pericolul extinctiei speciei.
  Anul trecut au fost scrise mai multe lucrari academice despre snowboarding decat despre extinctia oamenilor.
  Directorul suedez al institutului, Nick Bostrom spune ca sansele nu pot fi mai mari. Si daca intelegem gresit,acesta ar fi ultimul secol al umanitatii.
Am fost acolo,am supravietuit
Si care sunt pericolele cele mari?
Sa incepem cu vestile bune. Pandemiile si dezastrele naturale pot cauza pierderi colosale si castastrofale de vieti dar Dr. Bostrom crede ca umanitatea poate supravietui.
 Asta pentru ca noi ca specie deja am trecut peste sute de mii de ani de boli,foamete,inundatii,pradatori,persecutii,cutremure si schimbari climatice. Balanta inca inclina spre noi.
  Si daca privim spre viitor,pana la sfarsitul secolului riscul extinctiei prin urmarea a unei ciocniri cu un asteroid si a super-eruptiilor vulcanice rama extrem de mici.

  Chiar si dupa marile pierderi produse de oameni intre ei din secolul XX sau gripa spaniola au dat gres in incercarea lor de a opri cresterea populatiei globale.

  Razboiul nuclear ar putea cauza distrugeri masive dar destui indivizi ar putea supravietui pentru a permite speciei sa supravietuiasca.

  Daca acestea sunt faptele,atunci de ce ar trebui sa ne ingrijoram?
 Dr. Bostrom crede ca am intrat intr-o noua era tehnologica care are capacitatea de a ne ameninta viitorul ca nici un lucru dinaintea sa. Aceste ‚’’amenintari nu dau nici o sansa de supravietuire’’.
  Lipsa de control
  Asemanando cu o arma periculoasa in mana unui copil,el spune ca tehnologia avansata ne-a luat capacitatea de a controla posibilele ei consecinte.
Experimente in aria biologiei sintetice,nanotehnologiei si a masinariilor inteligente ne duc spre teritorii neintentionate si neprevizibile.
  Biologia sintetica,locul unde biologia intalneste ingineria,promite mari beneficii medicale. Dar dr. Bostrum este ingrijorat de consecintele nebanuite in manipularea biologiei omului.
  Nanotehnologia,munca la nivel molecular sau atomic,ar putea sa devina foarte distructiva daca este folosita in scop razboinic. El a scris ca viitorii guvernanti vor avea mari probleme in a controla si a restrictiona uzul ei.
  Exista temeri asupra cum vor interaciona masinile inteligente cu lumea externa.
 Asemenea masini conduse de calculatoare ar putea fi unelte foarte puternice in industrie,medicina,agricultura si in modul in care va fi condusa economia.
  Dar poate fi si complet indiferenta la orice incident major.

Coincidente neintentionate
  Acestea nu sunt concepte abstracte.
 Sean O’Heigeartaigh,un genetician al institutului,descrie o analogie cu algoritmi folositi de catre bursa.
  Aceste calcule matematice au consecinte directe si distructive asupra economiei reale si asupra oamenilor adevarati.
   Aceste sisteme pot ‚’’manipula lumea reala’’,spune Dr. O’Heigeartaigh care a studiat evolutia moleculara la Trinity College Dublin.
   Despre riscurile provenite din biologiei,el este ingrijorat de bunele intentii aplicate gresit,adica de experimentele care au ca rol modificarea genetica,spargerea si reconstruirea structurilor genetice.
‚’’ Este foarte putin probabil ca ei sa vrea sa faca ceva vatamator’’,spune el.
  Dar intotdeauna exista riscul unor siruri de evenimente gresite sau ca un anumit lucru sa devina vatamator atunci cand este transferat in alt mediu.
‚’’Noi dezvoltam lucruri care pot merge pe o cale gresita intr-un mod profund’’ spune.
‚’’Atunci cand avem de aface cu o noua tehnologie puternica trebuie sa fim foarte atenti la lucrurile pe care le stim-dar poate fi mult mai important sa stim despre tot ceea ce nu suntem siguri’’.
 Si spune ca nu isi face cariera din a speria lumea,este motivat de seriozitatea muncii sale.’’Acesta este una dintre cele mai importante cai de a face diferentele pozitive’’,spune el.

Reactie in lant
  Acest grup eclectic de cercetatori vorbeste despre computere capabile sa creeze computere si mai puternice.
  Nu este vorba despre faptul ca aceste masinarii vor dezvolta dintr’o data sarcasmul si purtarile rele. Dar cercetatorul Daniel Dewet vorbeste despre o ‚’’explozie a inteligentei’’,atunci cand putera din ce in ce mai mare a computerelor devine mai putin previzibila si mai putin controlabila.
‚’’Inteligenta artificiala este una dintre tehnologiile care pune din ce in ce mai multa putere in pachete din ce in ce mai mici’’,spune mr. Dewey,un expert american in masinarii super-inteligente,care in trecut a lucrat pentru Google.
  Despre biotehnologie si nanotehnologie spune:’’Poti sa faci lucruri cu aceste tehnologii,sa obtii reactii in lant,asadar,chiar si daca incepi cu putine resurse poti sa dezvolti proiecte care pot afecta toata populatia globului.’’
  Proiectul Future of Humanity din cadrul universitatii Oxford este parte a unui val care este concentrat la cercetarea acestor mari intrebari. Institutul a fost lasnat de Oxford Martin School care aduna academicieni din vaste domenii cu scopul de a prevedea-contrabalansa cele mai mari probleme pe care lumea le are in acest moment.
  Si Universitatea Cambridge planuieste sa investigheze asemenea amenintari asupra umanitatii.
 Lordul Rees,Astronomul Regal si fost presedinte al Societatii Regale,construieste planuri pentru un centru  pentru Studierea Riscurilor Existentiale.
  ‚’’Acesta este primul secol din istoria cand cel mai mare amenintare asupra lumii vine de la ea insasi’’ spune lordul Rees.
   El spune ca noi suntem ingrijorati de riscurile imediate cum ar fi zborul cu avionul sau sanatatea alimentara,de aceea avem atatea dificultati in a recunoaste pericolele mai mari.

Eroare sau teroare
Lordul Rees subliniaza banuielile sale asupra biologiei sintetice.
 ‚’’Cu orice tehnologie care apare exista intotdeauna chestii bune,dar in acelasi timp exista riscuri’’.
  Creearea noilor organisme pentru folosirea in agircultura sau medicina pot avea efecte ecologice devastatoare sugereaza dansul.
 Lordul Reese ridica intrebari despre fragilitatea sociala si despre lipsa de resillience in societatea noastra dependenta de tehnologie.
   ‚’’Este vorba despre marime. Ne aflam intr-o lume tot mai inter-conectata,exista mai mult turism,stirile si rumorile se deplaseaza cu viteza luminii. Asadar,consecintele unei erori sau terori sunt mult mai mari ca in trecut’’.
  Lordul Rees impreuna cu filosoful de la Cambridge, Huw Price, cu economistul Sir Partha Dasgupta si cu fondatorul Skype,Jaan Tallinn,vor ca centrul propus pentru Studierea Riscurilor Existential sa evalueze aceste amenintari.
  Ar trebui sa fim ingrijorati pentru o apropiata zi a apocalipsei?
  Asta nu este o distopie. Nu este vorba despre un om prins sub un vulcan. De fapt,Institutul din cadrul Oxford-ului este situat in birourile universitatii de de-a supra salii de gimnastica,locul unde auto-conservarea se rezuma la a face roata si la lycra.
  Dr. Bostrom spune ca exista o diferenta intre viteza avansului tehnologic si puterea noastra de a-i intelege implicatiile.
  ‚’’Suntem la aceeasi nivel cu copii cand vine vorba despre responsabilitate morala,dar cu tehnologii dezvoltate pentru adulti’’’,spune el.
  Asadar,semnificanta riscului existential  nu se afla ‚’pe radarul oamenilor’’.
 Dar spune ca schimbarea vine chiar daca vor fi pregatiti sau nu.
 ‚’’Exista un limita in istoria oamenilor. Starea oamenilor se va schimba. Putem sa terminam catastrofal sau putem fi castigatori si putem si transformati daca reusim sa preluam controlul asupra biologiei noastre.
‚’’Nu este science fiction,doctrina religioasa sau convorbiri tarzii in noapte in club.''
‚’’Nu exista scuza morala pentru care nu am lua aceste lucruri in serios.’’

Articol tradus de ceva dintr-o anumita sursa pe care am uitat-o :)) Revenim.

Niciun comentariu:

Trimiteți un comentariu