Sari la conținut

„Inteligența artificială ca arma nucleară”: cuvintele șocante ale CEO-ului OpenAI

Etichete:
17/05/2023 14:30 - ACTUALIZAT 08/06/2023 10:27

Părintele ChatGpt despre riscurile inteligenței artificiale: „La fel de periculos ca bomba atomică”. Dacă însuși CEO-ul OpenAI, Sam Altman, nu este liniștit, noi cum putem fi? S-au trase numeroase semnale de alarmă cu privire la potențialele riscuri enorme pe care le poate presupune o dezvoltare nereglementată a așa-numitei Inteligențe Artificiale. Acum, într-o audiere în fața Subcomitetului Judiciar al Senatului SUA , fondatorul în vârstă de 38 de ani al companiei care a creat mult discutatul ChatGpt își exprimă toate temerile. OpenAI, de altfel, este finanțat în valoare de peste 10 miliarde de dolari de la Microsoftul omniprezentului și omnipotentului Bill Gates. (Continuați să citiți după fotografie)
>>> „Se va raționaliza electricitatea la anumite ore”. Așa va funcționa planul „Europa Verde”

Părintele ChatGpt despre riscurile inteligenței artificiale: „bombă atomică”

Există temeri că a fost creat un „monstru”, așadar, iar pe de altă parte, Elon Musk și alți o mie de magnați din Silicon Valley ceruseră deja în martie să se suspende dezvoltarea inteligenței artificiale timp de cel puțin șase luni, pentru a putea pentru a o reglementa. În special, Altman, în timpul audierii, a avertizat despre o probabilă utilizare a AI pentru a răspândi știri false în campania prezidențială din 2024. Prin urmare: „Inteligenta artificială trebuie adusă sub control precum armele nucleare”.

Chiar și senatorul american Mike Gallagher, care conduce Comitetul Congresului SUA pentru China, vede inteligența artificială ca „un instrument sau o armă pentru a perfecționa supravegherea tehno-totalitară orwelliană”. Revenind la CEO al OpenAI, Sam Altman a spus că este dispus să colaboreze pentru a elabora regulamente clare : „Cred că este nevoie de noi reguli, linii directoare. Putem și trebuie să lucrăm împreună pentru a identifica și gestiona potențiale pericole ”, potrivit watson.ch. (Continuați să citiți după fotografie)
>>> Schimbări importante în bănci: ce se întâmplă cu bancomatele

Părintele ChatGpt despre riscurile inteligenței artificiale: „La fel de periculos ca bomba atomică
Sam Altman trage un semnal de alarma

Părintele ChatGpt despre riscurile inteligenței artificiale: „poate greși și cauza daune semnificative”

Și pentru că, a adăugat el: „Cea mai mare teamă a mea este că ar putea provoca pagube semnificative ”. Fiind încă în stadiile inițiale, Inteligența Artificială generativă „poate greși”, iar printre „greșeli” nu putem să nu ne temem de riscul anormal al utilizării ei distorsionate, dacă ajunge pe mâini greșite . Ca și cum am fi într-un film științifico-fantastic.
>>> Ce spune Bill Gates despre carnea artificială: „Este foarte bună”

De aici și invitația lui Sam Altman de a evalua eventuala acordare de licențe pentru dezvoltarea modelelor de inteligență artificială, fără a înăbuși creșterea micilor start-up-uri din sector. Ar fi necesar să ne bazăm pe un organism internațional precum Agenția Internațională pentru Energie Atomică pentru armele nucleare, potrivit lui Altman, deoarece „dacă această tehnologie merge prost, poate merge foarte prost ”. Un alt risc deloc nesemnificativ este cel al șomajului în masă, cu 300 de milioane de locuri de muncă deja declarate cu risc de a fi înlocuite de AI, potrivit unui raport recent al lui Goldman Sachs. De aceea, președintele subcomisiei, Richard Blumenthal , a explicat că printre cele mai mari preocupări ale sale este pierderea în masă a locurilor de muncă. (Continuați să citiți după fotografie)
>>> Șeful AMS avertizează: 80% din locurile de muncă afectate de inteligența articială

„Cele mai mari temeri ale mele sunt că provocăm daune semnificative – noi, domeniul, industria tehnologică – lumii întregi ”, conform cuvintelor lui Sam Altman. Și asta nu este o afirmație reconfortantă, având în vedere de la cine vine.
>>> Atenţie la hoţii de energie electrică. Escrocii vânează numărul de contor