- Horyzont.ai
- Posts
- 🤖💸 Pieniądze czy bezpieczeństwo? Kontrowersyjne decyzje zarządu OpenAI
🤖💸 Pieniądze czy bezpieczeństwo? Kontrowersyjne decyzje zarządu OpenAI
PLUS: Bądź bardziej produktywny podczas spotkań video.
🗓 Czwartek 23.05
Witaj w kolejnym wydaniu Horyzont.ai, Twojego kompasu w świecie sztucznej inteligencji.
🔉Wolisz wersję audio? Nie możesz przeczytać teraz maila?
Przesłuchaj tutaj
Nasz newsletter pomoże Ci zacząć korzystać z AI na co dzień oraz nadążyć za nieustannymi nowościami.
~Jakub i Oskar
🎯 W DZISIEJSZYM WYDANIU
🎓 AI od zera do zrozumienia: Bezpieczeństwo nie jest priorytetem OpenAI, bo nic tego bezpieczeństwa nie zakłóca.
🎓 Twoje Ćwiczenie: Wykorzystaj TL;DV podczas spotkania online
🤖 A.I. w praktyce: Jak tl;dv rewolucjonizuje spotkania biznesowe – Praktyczny poradnik
📚 Rekomendowana Biblioteka: Były CEO Google, Eric Schmidt o przyszłości AI i Jensen Huang o tym jak wykorzystuje AI w Nvidii
🕓 Czas czytania: 5min 32s
AI Od Zera Do Zrozumienia 🎓
Bezpieczeństwo nie jest priorytetem OpenAI, bo nic tego bezpieczeństwa nie zakłóca.
EjAjowy X w poprzednim tygodniu żył zwolnieniami dwóch członków założycieli Superalignment Team Open AI - Ilyi Sutskevera oraz Jana Leike.
Krótkie przypomnienie czym jest Superalignment Team w OpenAI:
Superalignment Team w OpenAI to specjalistyczna grupa zajmująca się zapewnieniem, że sztuczna inteligencja rozwijana przez OpenAI jest zgodna z ludzkimi wartościami i interesami. Ich praca skupia się na tworzeniu metod i narzędzi, które pozwalają na kontrolowanie i monitorowanie zachowań AI, aby były one bezpieczne i przewidywalne.
Obydwaj panowie kulturalnie obwieścili swoje odejścia na X’ie, ale Jan Leike posunął się o krok do przodu. Właśnie tym krokiem poruszył Xa, ale przede wszystkim wyobraźnie każdego entuzjasty AI.
O co chodzi?
W swoim poście zawarł takie treści (o których zresztą pisał Marcin we wtorkowym wydaniu newslettera):
„W ciągu ostatnich kilku miesięcy mój zespół spotykał się z oporem [...] W ciągu ostatnich lat procesy bezpieczeństwa zeszły na dalszy plan”
oraz to:
„Pilnie musimy wymyślić, jak sterować i kontrolować systemy sztucznej inteligencji znacznie mądrzejsze od nas […] budowanie czegoś, co jest znacznie inteligentniejsze od ludzi jest rzeczą z gruntu niebezpieczną […] już dawno zaczęliśmy podchodzić poważnie do konsekwencji powstania AGI. Musimy priorytetowo potraktować przygotowanie się do tego momentu i zrobić to najlepiej, jak potrafimy. Tylko wtedy możemy zapewnić, że AGI przyniesie korzyści całej ludzkości.”
Nie trzeba wyjaśniać, że to są mocne słowa, a przede wszystkim ta część “Pilnie musimy wymyślić, jak sterować i kontrolować systemy sztucznej inteligencji znacznie mądrzejsze od nas […] budowanie czegoś, co jest znacznie inteligentniejsze od ludzi jest rzeczą z gruntu niebezpieczną”.
Jeśli te słowa Cię zaniepokoiły, to postaram się trochę rozluźnić sytuację.
Jan przedstawił tylko jedną stronę medalu, nikt nie wie co się dzieje w managemencie OpenAI oraz co bezpośrednio wpływa na decyzje zarządu.
OpenAI to wielka firma, posiada powyżej 700 pracowników. OpenAI jest firmą for-profit, która bierze udział w wyścigu zaawansowanych technologii z takimi firmami jak Google czy Anthropic (finansowany przez Amazon). Od szybkości jej rozwoju zależy przede wszystkim to jak dużo osób ma wykupioną subskrypcję ChatGPT Plus, jak dużo osób korzysta z API oraz to ile pieniędzy przyznają firmie inwestorzy. Firmie również zależy na tym, aby pieniądze rozlokować w odpowiednich działach. Jeśli Superalignment Team nie dostawał odpowiednich zasobów w postaci mocy obliczeniowej, to łatwo można dojść do wniosku, że nie jest za bardzo przydatny na aktualnym etapie i nie ma sensu go zasilać pieniędzmi.
Zapewnienie bezpieczeństwa zaawansowanych systemów nie jest za bardzo przydatne?
Ci, którzy śledzą branżę AI dłużej, doskonale wiedzą, że w przestrzeni medialnej pojawiają się informacje odnośnie tego, że AGI (czyli inteligencja na poziomie ludzkim) jest już za rogiem lub to, że OpenAI trzyma AGI zamknięte w piwnicy w jakimś laboratorium. Nie mówię, że jest niemożliwa do osiągnięcia, ale raczej to, że nieprędko ją osiągniemy. Być może twórcy ChatGPT doszli do wniosku, że nie ma sensu skupiać się na próbach regulacji i kontroli czegoś, co jeszcze nie jest zagrożeniem?
Dobrym pomysłem będzie przygotowanie krótkiej linii czasu wydań modeli od OpenAI.
GPT-3 - 2020
GPT-3.5 - 2022
GPT-4, GPT-4 Turbo - 2023
GPT-4o - 2024
Z każdym nowym modelem, oprócz zwiększonej liczby zbioru danych, na której model został nauczony, co umożliwia mu lepszą znajomość różnych języków i bycia specjalistą w coraz większej ilości tematów, ulepszeniach w rozumowaniu, to naprawdę dużo się nie zmienia. GPT-4o fajnie wyglądało na prezentacji, ale Łukasz Chomątek z Politechniki Łódzkiej udowodnił, że dało się stworzyć system z podobnym działaniem już wcześniej. Oczywiście, w swoim poście, Łukasz wykorzystał kilka różnych modeli do utworzenia tej funkcjonalności. GPT-4o to przede wszystkim nowy model, który nie potrzebuje dodatkowych modeli jako wtyczek, aby przetwarzać dźwięk, obraz, audio i wideo. GPT-4 wcześniej już miał podobne funkcje, ale wtedy przetwarzał audio czy obraz na tekst i na tej podstawie był w stanie odpowiadać.
Oczywiście nie umniejszam osiągnięć OpenAI i jest to coś niesamowitego, ale na pewno nie jest bliskie AGI ani nie zasługuje na liczbę 5 po GPT.
Wracając do Jana, który straszył nas zagrożeniami AGI, był on jedynie pracownikiem OpenAI. Pierwsza wiadomość, w dniu jego odejścia, jaka ujrzała światło dziennie to jedynie dwuzdaniowa informacja o tym, że odszedł z OpenAI.
Jako już były pracownik, zdecydował się na umieszczenie długiego, zastraszającego posta na X, który zacytowałem na początku tego tekstu.
Jak dla mnie wygląda to jakby miał jakiś personalny uraz do swojego byłego pracodawcy niż jakoby miał ostrzegać ludzkość przed potencjalnymi zagrożeniami “systemu znacznie inteligentniejszego od ludzi”.
Więc to nie jest tak, że OpenAI nie dba o nasze bezpieczeństwo, po prostu W TYM MOMENCIE nie trzeba wydawać kolejnych milionów na mega zaawansowany dział zajmujący się bezpieczeństwem ludzkości, ani się tym przejmować, w końcu parlament Unii Europejskiej robi to za nas.
Jeśli interesuje Cię dyskusja w tym temacie, to zapraszam Cię serdecznie dziś o 20:00 na nowy cykl dyskusji i spotkań #AIHydepark na naszym Discordzie.
Spotykamy się w każdy czwartek o 20:00, żeby pogadać o najnowszych trendach, osiągnięciach i kontrowersjach w dziedzinie sztucznej inteligencji.
OpenAI osiągnęło AGI? Chcesz podyskutować jak odnaleźć się w nowym świecie zdominowanym przez AI? A może masz fajne zastosowanie AI, którym chcesz się pochwalić? Tutaj możesz o tym wszystkim porozmawiać! Potrzebujesz pomocy lub rady dotyczącej AI? Chętnie Ci pomożemy.
Porozmawiamy też o najnowszych dokonaniach liderów branży AI takich jak Google, Microsoft, Anthropic i wiele innych. Dołącz do nas i bądź na bieżąco z rewolucją sztucznej inteligencji!
Kliknij w zdjęcie poniżej i dołącz do mojego serwera Discord!
AI w Praktyce 🤖
tl;dv to narzędzie do nagrywania i transkrypcji spotkań online, które automatycznie zapisuje i transkrybuje spotkania na platformach takich jak Google Meet, Zoom i Microsoft Teams, umożliwiając łatwe oznaczanie kluczowych momentów, udostępnianie nagrań oraz integrację z CRM-ami. Idealne do poprawy efektywności i zarządzania informacjami ze spotkań.
Wyobraź sobie cotygodniowe spotkania projektowe z międzynarodowym zespołem. Dzięki tl;dv nie musisz już martwić się o notowanie – narzędzie automatycznie nagrywa spotkania i generuje transkrypcje w ponad 20 językach. Podczas spotkania dodajesz znaczniki do kluczowych momentów, co ułatwia późniejsze przeszukiwanie. Po spotkaniu otrzymujesz natychmiastowe podsumowanie AI, które można automatycznie udostępnić przez Slacka, e-maila lub Zapier. Wszystkie ważne punkty, zadania i wnioski są łatwo dostępne i edytowalne. Integracja z CRM-ami, jak Salesforce czy Hubspot, pozwala przenosić wnioski bezpośrednio do systemów zarządzania relacjami z klientami. Możliwość pobierania nagrań do trybu offline zapewnia dostęp do informacji nawet bez internetu.
Twoje Ćwiczenie
🆕 Wykorzystaj TL;DV podczas spotkania online
Zorganizuj 30-minutowe testowe spotkanie z zespołem na platformie Google Meet, Zoom lub Microsoft Teams. Upewnij się, że masz aktywowane tl;dv i zapoznałeś się z jego funkcjami, które poznasz w tym poradniku. Poinformuj zespół lub klienta o nagrywaniu spotkania, aby zaprezentować działanie aplikacji.
Podczas spotkania użyj tl;dv do automatycznego nagrywania i transkrypcji, oznaczaj kluczowe momenty, i pokaż uczestnikom, jak dodawać interaktywne notatki. Po zakończeniu spotkania przejrzyj transkrypcję i podsumowanie AI, edytuj notatki i przypisz zadania. Udostępnij link do nagrania i transkrypcji przez Slacka, E-maila lub Zapier, aby wszyscy mieli dostęp do materiałów.
Biblioteka 📚
Przyszłość AI, według byłego prezesa Google Erica Schmidta
Opis: W wywiadzie dla Noema Magazine, były prezes Google Eric Schmidt dzieli się swoimi przemyśleniami na temat przyszłości sztucznej inteligencji. Według niego, w ciągu najbliższych 5 lat nastąpi gwałtowny rozwój AI oparty na trzech kluczowych elementach: nieskończenie długim oknie kontekstowym, agentach AI oraz programowaniu sterowanym tekstem. Schmidt podkreśla potrzebę regulacji i współpracy międzynarodowej, w tym dialogu z Chinami, aby zapobiec złemu wykorzystaniu potężnych systemów AI, jednocześnie przyznając, że osiągnięcie formalnych porozumień z Chinami będzie bardzo trudne.Nowa rozmowa z CEO Nvidii Jensen Huangiem o tym jak wykorzystuje AI w Nvidii
Opis: Jensen Huang mówi o tym, jak Nvidia intensywnie wykorzystuje AI w całej firmie, od projektowania chipów po debugowanie oprogramowania, dążąc do przekształcenia się w "jedną wielką sztuczną inteligencję". Huang zauważa, że duże modele językowe potrafią uczyć się nie tylko języków naturalnych, ale też języków programowania, muzyki czy robotyki, co pozwala na tworzenie "copilotów" dla każdego narzędzia, choć firmy i tak będą musiały trenować własne wyspecjalizowane modele do najważniejszych zastosowań.
To na tyle!
Jeśli masz jakieś ekscytujące pomysły lub projekty, śmiało się z nami skontaktuj, odpowiadając na ten email lub śledząc nas na
LinkedIn: @OskarKorszen
Do zobaczenia w następnym wydaniu!
~Jakub I Oskar
Reply