Nowy model AI do rozumowania rywalizujący z OpenAI wytrenowany za mniej niż 50 dolarów w zakresie obliczeń.

Nowy model AI do rozumowania rywalizujący z OpenAI wytrenowany za mniej niż 50 dolarów w zakresie obliczeń.

„`html

Nowy model AI konkurujący z OpenAI stworzony za mniej niż 50 dolarów

Coraz wyraźniej widać, że modele językowe oparte na sztucznej inteligencji stają się narzędziem dostępnym na masową skalę. Takie inicjatywy jak DeepSeek pokazują, że można je tworzyć bez konieczności inwestowania miliardów dolarów. Nowa propozycja, znana jako S1, potwierdza tę tendencję. Naukowcy z Uniwersytetu Stanforda oraz Uniwersytetu Waszyngtońskiego przeprowadzili szkolenie tego „logicznego” modelu, wykorzystując mniej niż 50 dolarów w chmurze obliczeniowej.

Charakterystyka modelu S1

Model S1 jest bezpośrednim konkurentem dla O1 od OpenAI, nazywanym modelem rozumującym, ponieważ generuje odpowiedzi na podstawie logicznego rozważania powiązanych pytań. Na przykład, jeśli modelowi zostanie zadane pytanie o koszt wymiany wszystkich pojazdów Ubera na flotę Waymo, podzieli on to zagadnienie na etapy, sprawdzając, ile Uberów jest na drogach oraz ile kosztuje produkcja samochodu Waymo.

Zgodnie z doniesieniami TechCrunch, model S1 opiera się na gotowym modelu językowym. Uczy się rozumować, analizując pytania i odpowiedzi z modelu Google, Gemini 2.0 Flashing Thinking Experimental. Model Google ujawnia tok myślenia, który stoi za każdą odpowiedzią, co pozwala twórcom S1 dostarczyć stosunkowo niewiele danych treningowych – 1000 wyselekcjonowanych pytań i odpowiedzi – i nauczyć model naśladowania procesu myślowego Gemini.

Ulepszanie modelu S1

Interesującym elementem jest poprawa wydajności rozumowania modelu S1 za pomocą prostego triku:

Naukowcy zastosowali sprytny trik, aby skłonić S1 do dokładniejszej weryfikacji swojej pracy i wydłużenia czasu „myślenia”: polecili modelowi czekać. Dodanie słowa „czekaj” w trakcie procesu rozumowania pozwoliło modelowi na uzyskanie nieco dokładniejszych odpowiedzi.

To ukazuje, że mimo obaw, iż możliwości modeli AI osiągnęły już swoje granice, wciąż istnieje wiele łatwych do osiągnięcia usprawnień. Pokazuje to również, jak logiczne modele i czatboty są uproszczone; nie myślą jak ludzie i potrzebują wskazówek na każdym kroku. Są to maszyny przewidujące następne słowo, które przy odpowiednich trikach można nauczyć generowania zbliżonych do rzeczywistych odpowiedzi.

Kwestie prawne i etyczne

OpenAI podobno wyraziło zastrzeżenia wobec chińskiej ekipy DeepSeek, która trenowała swój model na wynikach ich systemu. Ironią jest, że główne modele, takie jak ChatGPT, były szkolone na danych z internetu bez zezwoleń, co jest obecnie przedmiotem sporów sądowych. Google technicznie zakazuje konkurentom, takim jak S1, szkolenia się na wynikach Gemini, ale mało osób wykazuje zrozumienie dla tej polityki.

Ostatecznie, chociaż S1 prezentuje imponujące wyniki, nie sugeruje, że można samodzielnie stworzyć mniejszy model za 50 dolarów. Model opiera się na wcześniejszym szkoleniu Gemini, korzystając z niejako „ściągawki”. Można to porównać do kompresji w obrazowaniu: skompresowana wersja modelu AI przypomina fotografię w formacie JPEG – dobra, ale tracąca na jakości. Jak dotąd, duże modele językowe wciąż zmagają się z dokładnością, zwłaszcza te, które przeszukują cały internet w poszukiwaniu odpowiedzi.

Wciąż trwają rozważania na temat znaczenia tanich, otwartych modeli dla szeroko pojętego przemysłu technologicznego. Czy OpenAI jest zagrożone, jeśli ich modele mogą być łatwo kopiowane? Obrońcy twierdzą, że modele językowe zawsze miały być dostępne masowo. OpenAI, Google i inni odniosą sukces dzięki rozwijaniu użytecznych aplikacji opartych na tych modelach. Ponad 300 milionów ludzi korzysta z ChatGPT każdego tygodnia, a produkt stał się synonimem czatbotów i nowej formy wyszukiwarek. Natomiast interfejs na wierzchu modeli, taki jak Operator OpenAI, który może nawigować po sieci dla użytkownika, lub unikalny zestaw danych, jak dostęp xAI do danych X (dawniej Twittera), będzie ostatecznym wyróżnikiem.

Przyszłość i wyzwania technologii AI

Kolejny aspekt do przemyślenia to fakt, że „wnioskowanie” ma pozostać kosztowne. Wnioskowanie to rzeczywiste przetwarzanie każdego zapytania użytkownika przesłanego do modelu. W miarę jak modele AI stają się tańsze i bardziej dostępne, zwiększa się zapotrzebowanie na zasoby obliczeniowe. Projekt serwerowy OpenAI o wartości 500 miliardów dolarów nie będzie marnotrawstwem, o ile cała ta gorączka na punkcie AI nie okaże się bańką.

„`

Zostaw komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *