Microsoft dodaje GPT-4 Turbo LLM do darmowej wersji Copilot
W roku 2023 firma Microsoft położyła duży nacisk na sztuczną inteligencję i współpracę z OpenAI, aby Copilot stał się rzeczywistością.
Dzięki dostępności kwantowych modeli LLM w HuggingFace i ekosystemom sztucznej inteligencji, takim jak H20, Text Gen i GPT4All, które umożliwiają ładowanie wag LLM na komputerze, masz teraz możliwość korzystania z bezpłatnej, elastycznej i bezpiecznej sztucznej inteligencji. Oto 9 najlepszych lokalnych/stacjonarnych programów LLM, które możesz wypróbować już teraz!
Spis treści
Hermes 2 Pro to zaawansowany model językowy udoskonalony przez Nous Research. Wykorzystuje zaktualizowaną i odchudzoną wersję zbioru danych OpenHermes 2.5, a także nowo wprowadzone zestawy danych Function Calling i JSON opracowane przez samą firmę. Model ten bazuje na architekturze Mistral 7B i został wytrenowany na 1 000 000 instrukcji/konwersacji o jakości GPT-4 lub wyższej, głównie na danych syntetycznych.
Model |
Hermes 2 Pro GPTQ |
---|---|
Rozmiar modelu |
7,26 GB |
Parametry |
7 miliardów |
Kwantowanie |
4-bit |
Typ |
Mistral |
Licencja |
Apache 2.0 |
Hermes 2 Pro na komputerze Mistral 7B to nowy flagowy model Hermes 7B, który oferuje lepszą wydajność w różnych testach porównawczych, w tym AGIEval, BigBench Reasoning, GPT4All i TruthfulQA. Jego zaawansowane możliwości sprawiają, że nadaje się on do wielu zadań związanych z przetwarzaniem języka naturalnego (NLP), takich jak generowanie kodu, tworzenie treści i aplikacje wykorzystujące konwersacyjną sztuczną inteligencję.
Zephyr to seria modeli językowych wyszkolonych do pełnienia roli pomocnych asystentów. Zephyr-7B-Beta to drugi model w serii, udoskonalony na podstawie Mistral-7B-v0.1 przy użyciu metody Direct Preference Optimization (DPO) na bazie publicznie dostępnych syntetycznych zestawów danych.
Model |
Zephyr 7B Beta |
---|---|
Rozmiar modelu |
7,26 GB |
Parametry |
7 miliardów |
Kwantowanie |
4-bit |
Typ |
Mistral |
Licencja |
Apache 2.0 |
Dzięki wyeliminowaniu wbudowanego wyrównywania zestawów danych treningowych Zephyr-7B-Beta wykazuje lepszą wydajność w testach porównawczych, takich jak MT-Bench, co zwiększa jego przydatność w przypadku wielu zadań. Jednakże taka zmiana może powodować problemy z generowaniem tekstu, gdy zostanie wyświetlony odpowiedni monit.
Skwantowana wersja Falcona bazuje na architekturze zawierającej wyłącznie dekoder, udoskonalonej na bazie surowego modelu Falcon-7b firmy TII. Podstawowy model Falcon został wytrenowany przy użyciu 1,5 biliona tokenów pochodzących z publicznego Internetu. Falcon Instruct to oparty na poleceniach model dekodowania z licencją Apache 2, który doskonale nadaje się dla małych firm poszukujących modelu do tłumaczenia języków i pobierania danych.
Model |
Falcon-7B-Instrukcja |
---|---|
Rozmiar modelu |
7,58 GB |
Parametry |
7 miliardów |
Kwantowanie |
4-bit |
Typ |
Sokół |
Licencja |
Apache 2.0 |
Jednakże ta wersja Falcona nie jest idealna do precyzyjnego dostrajania i przeznaczona jest wyłącznie do wnioskowania. Jeśli chcesz dostroić Falcona, będziesz musiał użyć surowego modelu, co może wymagać dostępu do sprzętu szkoleniowego klasy korporacyjnej, takiego jak akceleratory NVIDIA DGX lub AMD Instinct AI.
GPT4All-J Groovy to model pełniący wyłącznie funkcję dekodera, dostrojony przez Nomic AI i licencjonowany na podstawie Apache 2.0. GPT4ALL-J Groovy bazuje na oryginalnym modelu GPT-J, który jest znany ze znakomitego generowania tekstu z monitów. GPT4ALL -J Groovy został zmodyfikowany do modelu konwersacyjnego, który świetnie sprawdza się w szybkich i kreatywnych aplikacjach do generowania tekstu. Dzięki temu GPT4All-J Groovy idealnie nadaje się dla twórców treści, którzy chcą wspomóc się w pisaniu i komponowaniu, niezależnie od tego, czy chodzi o poezję, muzykę czy opowiadania.
Model |
GPT4ALL-J Groovy |
---|---|
Rozmiar modelu |
3,53 GB |
Parametry |
7 miliardów |
Kwantowanie |
4-bit |
Typ |
GPT-J |
Licencja |
Apache 2.0 |
Niestety, bazowy model GPT-J został wytrenowany na zbiorze danych wyłącznie w języku angielskim, co oznacza, że nawet ten dopracowany model GPT4ALL-J może komunikować się i wykonywać aplikacje generowania tekstu jedynie w języku angielskim.
DeepSeek Coder V2 to zaawansowany model języka, który wzbogaca programowanie i rozumowanie matematyczne. DeepSeek Coder V2 obsługuje wiele języków programowania i oferuje rozszerzoną długość kontekstu, co czyni go wszechstronnym narzędziem dla programistów.
Model |
Instrukcja DeepSeek Coder V2 |
---|---|
Rozmiar modelu |
13 GB |
Parametry |
33 miliardy |
Kwantowanie |
4-bit |
Typ |
Głębokie poszukiwanie |
Licencja |
Apache 2.0 |
W porównaniu ze swoim poprzednikiem DeepSeek Coder V2 wykazuje znaczącą poprawę w zadaniach związanych z kodowaniem, rozumowaniem i ogólnymi możliwościami. Rozszerza obsługę języków programowania z 86 do 338 i zwiększa długość kontekstu z 16 tys. do 128 tys. tokenów. W testach porównawczych przewyższa takie modele jak GPT-4 Turbo, Claude 3 Opus i Gemini 1.5 Pro w testach kryptograficznych i matematycznych.
Mixtral-8x7B to mieszanka modeli eksperckich (MoE) opracowana przez Mistral AI. Na każdy MLP przypada 8 ekspertów, co łącznie odpowiada za 45 miliardów parametrów. Jednakże podczas wnioskowania aktywowanych jest tylko dwóch ekspertów na każdy token, co sprawia, że jest to proces wydajny obliczeniowo, a jego prędkość i koszt są porównywalne z modelem o 12 miliardach parametrów.
Model |
Mikstral-8x7B |
---|---|
Rozmiar modelu |
12 GB |
Parametry |
45 miliardów (8 ekspertów) |
Kwantowanie |
4-bit |
Typ |
Ministerstwo Edukacji Mistral |
Licencja |
Apache 2.0 |
Mixtral obsługuje długość kontekstu wynoszącą 32 tys. tokenów i przewyższa Llama 2 o 70 mld w większości testów porównawczych, dorównując lub przewyższając wydajność GPT-3.5. Aplikacja biegle posługuje się wieloma językami, w tym angielskim, francuskim, niemieckim, hiszpańskim i włoskim, co czyni ją wszechstronnym wyborem do różnych zadań z zakresu przetwarzania języka naturalnego.
Wizard-Vicuna GPTQ to kwantowa wersja Wizard Vicuna oparta na modelu LlaMA. W przeciwieństwie do większości modeli LLM udostępnianych publicznie, Wizard-Vicuna jest modelem nieocenzurowanym, z którego usunięto wszelkie powiązania. Oznacza to, że model ten nie spełnia tych samych standardów bezpieczeństwa i etyki, co większość innych modelek.
Model |
Wizard-Vicuna-30B-Uncensored-GPTQ |
---|---|
Rozmiar modelu |
16,94 GB |
Parametry |
30 miliardów |
Kwantowanie |
4-bit |
Typ |
Lama |
Licencja |
Licencja publiczna 3 |
Choć może to stanowić problem dla kontroli dopasowania sztucznej inteligencji (AI), posiadanie nieocenzurowanego modelu LLM pozwala wydobyć to, co najlepsze w modelu, umożliwiając mu udzielanie odpowiedzi bez żadnych ograniczeń. Umożliwia to również użytkownikom dodawanie własnych, niestandardowych ustawień dotyczących tego, jak sztuczna inteligencja powinna działać lub reagować na dany monit.
Czy chcesz przetestować model wytrenowany przy użyciu unikalnej metody uczenia? Orca Mini to nieoficjalna implementacja dokumentu badawczego Orca firmy Microsoft. Model ten trenowano z wykorzystaniem podejścia polegającego na uczeniu się nauczyciela i ucznia, gdzie zbiór danych wypełniany jest wyjaśnieniami, a nie tylko wskazówkami i odpowiedziami. W teorii powinno to uczynić studenta mądrzejszym, ponieważ model może zrozumieć problem, zamiast szukać tylko par danych wejściowych i wyjściowych, jak to ma miejsce w przypadku konwencjonalnego LLM.
Llama 2 jest następcą oryginalnego Llama LLM, oferującym lepszą wydajność i wszechstronność. Wariant 13B Chat GPTQ jest dostrojony do aplikacji sztucznej inteligencji konwersacyjnej zoptymalizowanych pod kątem dialogu w języku angielskim.
Niektóre z wymienionych powyżej modeli występują w różnych wersjach pod względem specyfikacji. Ogólnie rzecz biorąc, wersje o wyższych parametrach technicznych dają lepsze rezultaty, ale wymagają bardziej wydajnego sprzętu, podczas gdy wersje o niższych parametrach technicznych dają gorszej jakości rezultaty, ale mogą być uruchamiane na słabszym sprzęcie. Jeśli nie masz pewności, czy Twój komputer obsłuży ten model, wypróbuj najpierw wersję o niższych parametrach, a następnie kontynuuj, aż uznasz, że spadek wydajności nie jest już akceptowalny.
W roku 2023 firma Microsoft położyła duży nacisk na sztuczną inteligencję i współpracę z OpenAI, aby Copilot stał się rzeczywistością.
Firma Nvidia właśnie ogłosiła wydanie modelu LLM (Large Language Model) opartego na otwartym kodzie źródłowym, który ma dorównywać wydajnością wiodącym zastrzeżonym modelom firm OpenAI, Anthropic, Meta i Google.
Foxconn, firma najbardziej znana z produkcji iPhone'ów i innych produktów sprzętowych Apple, właśnie zaskoczyła wszystkich, ogłaszając swój pierwszy duży model językowy (LLM) zwany FoxBrain, który ma służyć do usprawnienia produkcji i zarządzania łańcuchem dostaw.
Telewizory Smart TV naprawdę podbiły świat. Dzięki tak wielu świetnym funkcjom i możliwościom połączenia z Internetem technologia zmieniła sposób, w jaki oglądamy telewizję.
Lodówki to powszechnie stosowane urządzenia gospodarstwa domowego. Lodówki zazwyczaj mają dwie komory: komora chłodna jest pojemna i posiada światło, które włącza się automatycznie po każdym otwarciu lodówki, natomiast komora zamrażarki jest wąska i nie posiada światła.
Na działanie sieci Wi-Fi wpływa wiele czynników poza routerami, przepustowością i zakłóceniami. Istnieje jednak kilka sprytnych sposobów na usprawnienie działania sieci.
Jeśli chcesz powrócić do stabilnej wersji iOS 16 na swoim telefonie, poniżej znajdziesz podstawowy przewodnik, jak odinstalować iOS 17 i obniżyć wersję iOS 17 do 16.
Jogurt jest wspaniałym produktem spożywczym. Czy warto jeść jogurt codziennie? Jak zmieni się Twoje ciało, gdy będziesz jeść jogurt codziennie? Przekonajmy się razem!
W tym artykule omówiono najbardziej odżywcze rodzaje ryżu i dowiesz się, jak zmaksymalizować korzyści zdrowotne, jakie daje wybrany przez Ciebie rodzaj ryżu.
Ustalenie harmonogramu snu i rutyny związanej z kładzeniem się spać, zmiana budzika i dostosowanie diety to niektóre z działań, które mogą pomóc Ci lepiej spać i budzić się rano o odpowiedniej porze.
Proszę o wynajem! Landlord Sim to mobilna gra symulacyjna dostępna na systemy iOS i Android. Wcielisz się w rolę właściciela kompleksu apartamentowego i wynajmiesz mieszkania, a Twoim celem jest odnowienie wnętrz apartamentów i przygotowanie ich na przyjęcie najemców.
Zdobądź kod do gry Bathroom Tower Defense Roblox i wymień go na atrakcyjne nagrody. Pomogą ci ulepszyć lub odblokować wieże zadające większe obrażenia.
Poznajmy budowę, symbole i zasady działania transformatorów w jak najbardziej dokładny spos��b.
Od lepszej jakości obrazu i dźwięku po sterowanie głosowe i wiele więcej — te funkcje oparte na sztucznej inteligencji sprawiają, że inteligentne telewizory stają się o wiele lepsze!
Początkowo ludzie wiązali duże nadzieje z DeepSeek. Jako chatbot oparty na sztucznej inteligencji, reklamowany jako silny konkurent ChatGPT, obiecuje inteligentne możliwości i doświadczenia związane z czatem.
Łatwo jest przegapić ważne szczegóły podczas zapisywania innych istotnych informacji, a próba robienia notatek podczas rozmowy może być rozpraszająca. Rozwiązaniem jest Fireflies.ai.
Axolot Minecraft będzie świetnym pomocnikiem dla graczy operujących pod wodą, jeśli tylko będą umieli się nim posługiwać.
Konfiguracja gry A Quiet Place: The Road Ahead została oceniona dość wysoko, dlatego też przed podjęciem decyzji o pobraniu należy wziąć ją pod uwagę.