Drodzy,
na co dzień nie jestem fanem spekulacji. Wolę raczej twardo stąpać po ziemi niż filozofować o mniej lub bardziej możliwych scenariuszach grozy.
Niemniej jednak, 8 dni temu został opublikowany pewien artykuł, który rozpalił żywe dyskusje i realne obawy w Internecie, a mnie kupił już na wstępie jednym zdaniem (przetłumaczonym poniżej):
“Spekulacje na temat przyszłości są często frustrująco niejasne, dlatego staraliśmy się być tak konkretni i ilościowi, jak to tylko możliwe, nawet jeśli oznacza to przedstawienie jednej z wielu możliwych przyszłości.”
“AI 2027” - tak nazywa się ów artykuł.
Został napisany, kolektywnie, przez 4 AI-Ekspertów (w pełnym tego słowa znaczeniu) i jednego miłego Pana, który zgodził się ‘odrobotyzować’ ich dzieło, tłumacząc je na bardziej przystępny język.
O czym tu mowa?
Pewnie słyszeliście o AGI, Superinteligencji albo ASI. Wszystkie z nich to terminy, którymi uwielbiają rzucać na Twitterze panowie tacy jak Sam Altman czy Dario Amodei (odpowiednio CEO OpenAI i Anthropic), żeby dodać szczyptę niepokoju, dramy i ekscytacji do (już od dawna gotującej się) zupy AI.
Mnie jednak zawsze zastanawiało jedno: Jakim niby cudem mielibyśmy tam dojść? (tam w znaczeniu - do poziomu AGI Artificial General Intelligence).
Gdzieś mi zawsze brakowało tej kładki z punktu A do punktu B. “Nie kupowałem tego”, bo nie rozumiałem, jak to miałoby się wydarzyć. Całość wydawała się raczej jakimś science-fiction i czekaniem na cud.
Ten artykuł to zmienił.
Jest bardzo mocno osadzony w realiach. Zbiera aktualne dane geopolityczne, uwzględnia relacje międzynarodowe, obecny stan prac nad AI oraz ułomność natury ludzkiej i łączy je w holistyczną, spójną wizję. Wizję rozwoju sztucznej inteligencji w bardzo niedalekiej przyszłości (do 2027).
Dlaczego warto rzucić okiem?
Kurde no nie wiem, czy nie głupio tłumaczyć. Jestem świadomy, że sami bystrzacy czytają ten newsletter. W takim razie tylko przypomnę.
Po co? Po to żeby chronić swoje d*psko.
Żeby mieć świadomość co może nadejść. Żeby uświadamiać innych. Żeby wiedzieć, na co uważać i jak możliwie ponieść się na tej fali, by zapewnić bezpieczeństwo najbliższym.
Jest jeszcze jeden, nieoczywisty, powód dla którego warto rzucić okiem.
Strona jest po prostu rewelacyjnie wykonana. Dynamiczny diagram po prawej stronie ekranu (na komputerach) to świetna inspiracja dla wszystkich blogerów, develperów, designerów i tak dalej, i tak dalej.
Dlaczego prawdopodobnie nie rzucisz okiem?
Bo artykuł jest długi.
Bo artykuł jest po angielsku, wypełniony technicznym żargonem.
Dwa solidne argumenty, nie ma co.
I o ile z pierwszym nic nie zrobię, to chyba mogę pomóc z drugim. Przygotowując się do dzisiejszego wydania, przeczytałem całość od deski do deski, a następnie, fragmentami, poprosiłem kolegę GPT o przetłumaczenie.
Całość skleiłem w jednym, przyjemnym Google Docsie. Trwało to prawie 4 godziny (jest 3:37 jak piszę te słowa - stąd też mój drętwy humor w dzisiejszym wydaniu), ale przynajmniej wiem, że prezentuję Wam 40 stron rzetelnej spekulacji.
Oto link, Drogi Czytelniku: [LINK]
PS. Specjalnie nie przygotowałem tutaj żadnego podsumowania, skrótu ani ‘wybulletowanej’ listy, bo wierzę, że AI-2027 to artykuł kompletny. Nie można go rozwadniać.
Smaczek
Ty decydujesz, jak kończy się artykuł.
Możesz, na chwilę, się rozmarzyć, jak gdyby cała zachłanność ludzka nie istniała, a każdy nie patrzyłby na czubek własnego nosa - i wybrać “Slowdown”
lub
Możesz dostać bardzo solidnego i długo pieczącego policzka od rzeczywistości - i wybrać opcję “Race”.
Ale na własną odpowiedzialność…
Dzisiaj to tyle.
Co sądzicie o artykule? Zgadzacie się z autorami co do spekulacji?
Zapraszam do dyskusji.
Dzięki że jesteś,
Mikołaj Abramczuk
Świetny artykuł!!!!!!!
Mega strzał dla mnie bomba znowu otworzyłeś moje 3 oko