Powołując się na źródło zaznajomione z projektem, Reuters przekazał właśnie informację, że OpenAI pracuje nad przedsięwzięciem, które może okazać się przełomem na miarę publicznej premiery ChatGPT z końcówki 2022 roku. Jeśli wierzyć medialnym doniesieniom w istocie może chodzić o coś naprawdę spektakularnego.
Oczywiście trudno już mówić o „tajnym” projekcie skoro za sprawą informatora o jego istnieniu dowiedział się cały Świat, natomiast wciąż istnieje wiele niewiadomych, jak choćby kwestia terminu udostępnienia przełomowych możliwości. Toczą się spekulacje dotyczącego tego, czy nowości pojawią się jeszcze w ramach ChatGPT-4o czy dopiero wraz z premierą ChatGPT-5.
Strawberry to ten sam projekt, który miał zagrozić istnieniu ludzkości?
W listopadzie i grudniu ubiegłego roku wokół OpenAI działo się bardzo wiele. Najpierw byliśmy świadkami momentami komicznej historii odejścia i powrotu do firmy Sama Altmana, a niedługo potem, w sieci pojawiły się dokumenty sugerujące, że inżynierowie pracujący nad ulepszaniem modelu językowego odkryli coś, co ich bardzo wystraszyło. Mówiło się wówczas, że rozwój sztucznej inteligencji osiągnął poziom tak wysoki, że realne stało się zagrożenie dla istnienia ludzkości. W owym czasie zaczęło się pojawiać coraz więcej materiałów na temat AGI, o czym na naszych łamach pisał Sebastian. Obszerną i muszę przyznać dość przerażającą (w kwestii wniosków) analizę publikowanych wówczas materiałów od OpenAI przedstawił w poniższym nagraniu David Shapiro.
Dwie rzeczy, które wstrząsnęły mną wówczas najbardziej: potencjalna możliwość złamania szyfrowania AES po de facto „spojrzeniu” na tekst oraz umiejętność samodoskonalenia się modelu AI, czyli nauki na własnych błędach. Oficjalnie nigdy nie potwierdzono czy dokumenty, które ujrzały wtedy światło dzienne były prawdziwe i czy w laboratoriach OpenAI rzeczywiście udało się dokonać tak wielkiego przełomu. Tymczasem pewne poszlaki wskazują na to, że projekt „Strawberry” to spadkobierca szeroko komentowanego Q*. Pojawiają się wręcz sugestie, ze „Strawberry” to po prostu inna nazwa opracowywanego w ciągu kilkunastu ostatnich miesięcy rozwiązania, które tak bardzo wystraszyło pracujących nad nim naukowców.
Przejdźmy zatem do konkretów. Reuters przekazał, że model rozwijany w ramach „Strawberry” ma być zdolny do „planowania z wyprzedzeniem wystarczającym do autonomicznego poruszania się po Internecie” oraz do dokonywania „dogłębnych badań”. W teorii ma to rozwiązać problem halucynacji, jakie obecnie możemy obserwować w przypadku nawet najbardziej zaawansowanych modeli językowych, czyli sytuacji, w której gdy AI brakuje danych niezbędnych do udzielenia odpowiedzi. Są one po prostu fabrykowane i przekazywane jako prawdziwe.
Strawberry może być niezwykle zaawansowanym modelem AI
W ostatnim czasie także Bloomberg donosił, że podczas niedawnego spotkania z pracownikami, OpenAI pokazało praktyczne działanie modelu wykazującego się rozumowaniem podobnym od ludzkiego. Prawdopodobne, że posłużono się w tym przypadku metodą Self-Taught Reasoner (STaR), która polega na tym, że model uczy się na podstawie własnego rozumowania i obserwując efekty swoich działań. W teoretycznych założeniach STaR (czyżby faktycznie było to powiązanie z projektem Q*?) może zapewnić modelom AI inteligencję przewyższającą możliwości człowieka. Do najświeższych informacji dotyczących projektu „Strawberry” odniósł się w swoim najnowszym nagraniu David Shapiro.
Dziennikarze Android Authority przypominają także, że inna z firm działających na polu AI Perplexity zaktualizowała niedawno opracowane przez siebie rozwiązanie Pro Search w taki sposób, że bardziej złożone zapytania rozbijane są na mniejsze i mniej skomplikowane, ale wciąż ustrukturyzowane zadania. Takie działanie ma naśladować ludzkie podejście do rozwiania problemów.
O ile nie żyjemy w tym momencie w sferze domysłów co do tego, jak duże możliwości będzie miał najnowszy model opracowywany przez OpenAI, to niezaprzeczalnym faktem jest, że umiejętność modeli AI do samodzielnego przeprowadzania badań robi piorunujące wrażenie. Jeśli okaże się to prawdą, w pełni rozumiem obawy wyrażane przez naukowców w grudniu ubiegłego roku.
Źródło: Android Authority