OpenAI wydało GPT-4, najnowszą wersję swojego niezwykle popularnego chatbota ChatGPT ze sztuczną inteligencją.

Nowy model może reagować na obrazy – na przykład dostarczać sugestie przepisów ze zdjęć składników, a także pisać podpisy i opisy.
Może również przetworzyć do 25 000 słów, około osiem razy więcej niż ChatGPT.
Miliony ludzi korzystały z ChatGPT od czasu jego uruchomienia w listopadzie 2022 r.
Popularne prośby o to obejmują pisanie piosenek, wierszy, tekstów marketingowych, kodu komputerowego i pomoc w odrabianiu lekcji – chociaż nauczyciele twierdzą, że uczniowie nie powinni z tego korzystać.
ChatGPT odpowiada na pytania, używając naturalnego, ludzkiego języka, a także może naśladować inne style pisania, takie jak autorzy piosenek i autorzy, wykorzystując internet jako bazę wiedzy w 2021 roku.
Istnieją obawy, że pewnego dnia może przejąć wiele prac wykonywanych obecnie przez ludzi.
OpenAI powiedział, że spędził sześć miesięcy na funkcjach bezpieczeństwa dla GPT-4 i wyszkolił go na podstawie opinii ludzi. Ostrzegł jednak, że nadal może być skłonny do rozpowszechniania dezinformacji.
GPT-4 będzie początkowo dostępny dla abonentów ChatGPT Plus, którzy płacą 20 USD miesięcznie za dostęp premium do usługi.
Już zasila platformę wyszukiwarki Bing firmy Microsoft. Gigant technologiczny zainwestował 10 miliardów dolarów w OpenAI.
W wersji demonstracyjnej na żywo wygenerował odpowiedź na skomplikowane zapytanie podatkowe – choć nie było możliwości zweryfikowania jego odpowiedzi.
GPT-4, podobnie jak ChatGPT, jest rodzajem generatywnej sztucznej inteligencji. Generatywna sztuczna inteligencja wykorzystuje algorytmy i przewidywanie tekstu do tworzenia nowych treści w oparciu o podpowiedzi.
OpenAI powiedział, że GPT-4 ma „bardziej zaawansowane umiejętności rozumowania” niż ChatGPT. Model może na przykład znaleźć dostępne terminy spotkań dla trzech harmonogramów.
OpenAI ogłosiło również nowe partnerstwo z aplikacją do nauki języków Duolingo i Be My Eyes, aplikacją dla osób niedowidzących, w celu stworzenia AI Chatbots, które mogą pomagać swoim użytkownikom w używaniu języka naturalnego.
Jednak, podobnie jak jego poprzednicy, OpenAI ostrzega, że GPT-4 wciąż nie jest w pełni niezawodny i może „wywoływać halucynacje” – zjawisko, w którym sztuczna inteligencja wymyśla fakty lub popełnia błędy w rozumowaniu.