Microsoft dodaje GPT-4 Turbo LLM do darmowej wersji Copilot
W roku 2023 firma Microsoft położyła duży nacisk na sztuczną inteligencję i współpracę z OpenAI, aby Copilot stał się rzeczywistością.
Dzięki dostępności kwantowych modeli LLM w HuggingFace i ekosystemom sztucznej inteligencji, takim jak H20, Text Gen i GPT4All, które umożliwiają ładowanie wag LLM na komputerze, masz teraz możliwość korzystania z bezpłatnej, elastycznej i bezpiecznej sztucznej inteligencji. Oto 9 najlepszych lokalnych/stacjonarnych programów LLM, które możesz wypróbować już teraz!
Spis treści

Hermes 2 Pro to zaawansowany model językowy udoskonalony przez Nous Research. Wykorzystuje zaktualizowaną i odchudzoną wersję zbioru danych OpenHermes 2.5, a także nowo wprowadzone zestawy danych Function Calling i JSON opracowane przez samą firmę. Model ten bazuje na architekturze Mistral 7B i został wytrenowany na 1 000 000 instrukcji/konwersacji o jakości GPT-4 lub wyższej, głównie na danych syntetycznych.
|
Model |
Hermes 2 Pro GPTQ |
|---|---|
|
Rozmiar modelu |
7,26 GB |
|
Parametry |
7 miliardów |
|
Kwantowanie |
4-bit |
|
Typ |
Mistral |
|
Licencja |
Apache 2.0 |
Hermes 2 Pro na komputerze Mistral 7B to nowy flagowy model Hermes 7B, który oferuje lepszą wydajność w różnych testach porównawczych, w tym AGIEval, BigBench Reasoning, GPT4All i TruthfulQA. Jego zaawansowane możliwości sprawiają, że nadaje się on do wielu zadań związanych z przetwarzaniem języka naturalnego (NLP), takich jak generowanie kodu, tworzenie treści i aplikacje wykorzystujące konwersacyjną sztuczną inteligencję.
Zephyr to seria modeli językowych wyszkolonych do pełnienia roli pomocnych asystentów. Zephyr-7B-Beta to drugi model w serii, udoskonalony na podstawie Mistral-7B-v0.1 przy użyciu metody Direct Preference Optimization (DPO) na bazie publicznie dostępnych syntetycznych zestawów danych.
|
Model |
Zephyr 7B Beta |
|---|---|
|
Rozmiar modelu |
7,26 GB |
|
Parametry |
7 miliardów |
|
Kwantowanie |
4-bit |
|
Typ |
Mistral |
|
Licencja |
Apache 2.0 |
Dzięki wyeliminowaniu wbudowanego wyrównywania zestawów danych treningowych Zephyr-7B-Beta wykazuje lepszą wydajność w testach porównawczych, takich jak MT-Bench, co zwiększa jego przydatność w przypadku wielu zadań. Jednakże taka zmiana może powodować problemy z generowaniem tekstu, gdy zostanie wyświetlony odpowiedni monit.

Skwantowana wersja Falcona bazuje na architekturze zawierającej wyłącznie dekoder, udoskonalonej na bazie surowego modelu Falcon-7b firmy TII. Podstawowy model Falcon został wytrenowany przy użyciu 1,5 biliona tokenów pochodzących z publicznego Internetu. Falcon Instruct to oparty na poleceniach model dekodowania z licencją Apache 2, który doskonale nadaje się dla małych firm poszukujących modelu do tłumaczenia języków i pobierania danych.
|
Model |
Falcon-7B-Instrukcja |
|---|---|
|
Rozmiar modelu |
7,58 GB |
|
Parametry |
7 miliardów |
|
Kwantowanie |
4-bit |
|
Typ |
Sokół |
|
Licencja |
Apache 2.0 |
Jednakże ta wersja Falcona nie jest idealna do precyzyjnego dostrajania i przeznaczona jest wyłącznie do wnioskowania. Jeśli chcesz dostroić Falcona, będziesz musiał użyć surowego modelu, co może wymagać dostępu do sprzętu szkoleniowego klasy korporacyjnej, takiego jak akceleratory NVIDIA DGX lub AMD Instinct AI.
GPT4All-J Groovy to model pełniący wyłącznie funkcję dekodera, dostrojony przez Nomic AI i licencjonowany na podstawie Apache 2.0. GPT4ALL-J Groovy bazuje na oryginalnym modelu GPT-J, który jest znany ze znakomitego generowania tekstu z monitów. GPT4ALL -J Groovy został zmodyfikowany do modelu konwersacyjnego, który świetnie sprawdza się w szybkich i kreatywnych aplikacjach do generowania tekstu. Dzięki temu GPT4All-J Groovy idealnie nadaje się dla twórców treści, którzy chcą wspomóc się w pisaniu i komponowaniu, niezależnie od tego, czy chodzi o poezję, muzykę czy opowiadania.
|
Model |
GPT4ALL-J Groovy |
|---|---|
|
Rozmiar modelu |
3,53 GB |
|
Parametry |
7 miliardów |
|
Kwantowanie |
4-bit |
|
Typ |
GPT-J |
|
Licencja |
Apache 2.0 |
Niestety, bazowy model GPT-J został wytrenowany na zbiorze danych wyłącznie w języku angielskim, co oznacza, że nawet ten dopracowany model GPT4ALL-J może komunikować się i wykonywać aplikacje generowania tekstu jedynie w języku angielskim.

DeepSeek Coder V2 to zaawansowany model języka, który wzbogaca programowanie i rozumowanie matematyczne. DeepSeek Coder V2 obsługuje wiele języków programowania i oferuje rozszerzoną długość kontekstu, co czyni go wszechstronnym narzędziem dla programistów.
|
Model |
Instrukcja DeepSeek Coder V2 |
|---|---|
|
Rozmiar modelu |
13 GB |
|
Parametry |
33 miliardy |
|
Kwantowanie |
4-bit |
|
Typ |
Głębokie poszukiwanie |
|
Licencja |
Apache 2.0 |
W porównaniu ze swoim poprzednikiem DeepSeek Coder V2 wykazuje znaczącą poprawę w zadaniach związanych z kodowaniem, rozumowaniem i ogólnymi możliwościami. Rozszerza obsługę języków programowania z 86 do 338 i zwiększa długość kontekstu z 16 tys. do 128 tys. tokenów. W testach porównawczych przewyższa takie modele jak GPT-4 Turbo, Claude 3 Opus i Gemini 1.5 Pro w testach kryptograficznych i matematycznych.

Mixtral-8x7B to mieszanka modeli eksperckich (MoE) opracowana przez Mistral AI. Na każdy MLP przypada 8 ekspertów, co łącznie odpowiada za 45 miliardów parametrów. Jednakże podczas wnioskowania aktywowanych jest tylko dwóch ekspertów na każdy token, co sprawia, że jest to proces wydajny obliczeniowo, a jego prędkość i koszt są porównywalne z modelem o 12 miliardach parametrów.
|
Model |
Mikstral-8x7B |
|---|---|
|
Rozmiar modelu |
12 GB |
|
Parametry |
45 miliardów (8 ekspertów) |
|
Kwantowanie |
4-bit |
|
Typ |
Ministerstwo Edukacji Mistral |
|
Licencja |
Apache 2.0 |
Mixtral obsługuje długość kontekstu wynoszącą 32 tys. tokenów i przewyższa Llama 2 o 70 mld w większości testów porównawczych, dorównując lub przewyższając wydajność GPT-3.5. Aplikacja biegle posługuje się wieloma językami, w tym angielskim, francuskim, niemieckim, hiszpańskim i włoskim, co czyni ją wszechstronnym wyborem do różnych zadań z zakresu przetwarzania języka naturalnego.
Wizard-Vicuna GPTQ to kwantowa wersja Wizard Vicuna oparta na modelu LlaMA. W przeciwieństwie do większości modeli LLM udostępnianych publicznie, Wizard-Vicuna jest modelem nieocenzurowanym, z którego usunięto wszelkie powiązania. Oznacza to, że model ten nie spełnia tych samych standardów bezpieczeństwa i etyki, co większość innych modelek.
|
Model |
Wizard-Vicuna-30B-Uncensored-GPTQ |
|---|---|
|
Rozmiar modelu |
16,94 GB |
|
Parametry |
30 miliardów |
|
Kwantowanie |
4-bit |
|
Typ |
Lama |
|
Licencja |
Licencja publiczna 3 |
Choć może to stanowić problem dla kontroli dopasowania sztucznej inteligencji (AI), posiadanie nieocenzurowanego modelu LLM pozwala wydobyć to, co najlepsze w modelu, umożliwiając mu udzielanie odpowiedzi bez żadnych ograniczeń. Umożliwia to również użytkownikom dodawanie własnych, niestandardowych ustawień dotyczących tego, jak sztuczna inteligencja powinna działać lub reagować na dany monit.

Czy chcesz przetestować model wytrenowany przy użyciu unikalnej metody uczenia? Orca Mini to nieoficjalna implementacja dokumentu badawczego Orca firmy Microsoft. Model ten trenowano z wykorzystaniem podejścia polegającego na uczeniu się nauczyciela i ucznia, gdzie zbiór danych wypełniany jest wyjaśnieniami, a nie tylko wskazówkami i odpowiedziami. W teorii powinno to uczynić studenta mądrzejszym, ponieważ model może zrozumieć problem, zamiast szukać tylko par danych wejściowych i wyjściowych, jak to ma miejsce w przypadku konwencjonalnego LLM.

Llama 2 jest następcą oryginalnego Llama LLM, oferującym lepszą wydajność i wszechstronność. Wariant 13B Chat GPTQ jest dostrojony do aplikacji sztucznej inteligencji konwersacyjnej zoptymalizowanych pod kątem dialogu w języku angielskim.
Niektóre z wymienionych powyżej modeli występują w różnych wersjach pod względem specyfikacji. Ogólnie rzecz biorąc, wersje o wyższych parametrach technicznych dają lepsze rezultaty, ale wymagają bardziej wydajnego sprzętu, podczas gdy wersje o niższych parametrach technicznych dają gorszej jakości rezultaty, ale mogą być uruchamiane na słabszym sprzęcie. Jeśli nie masz pewności, czy Twój komputer obsłuży ten model, wypróbuj najpierw wersję o niższych parametrach, a następnie kontynuuj, aż uznasz, że spadek wydajności nie jest już akceptowalny.
W roku 2023 firma Microsoft położyła duży nacisk na sztuczną inteligencję i współpracę z OpenAI, aby Copilot stał się rzeczywistością.
Firma Nvidia właśnie ogłosiła wydanie modelu LLM (Large Language Model) opartego na otwartym kodzie źródłowym, który ma dorównywać wydajnością wiodącym zastrzeżonym modelom firm OpenAI, Anthropic, Meta i Google.
Foxconn, firma najbardziej znana z produkcji iPhone'ów i innych produktów sprzętowych Apple, właśnie zaskoczyła wszystkich, ogłaszając swój pierwszy duży model językowy (LLM) zwany FoxBrain, który ma służyć do usprawnienia produkcji i zarządzania łańcuchem dostaw.
Masz problem z logowaniem przez Internet w Microsoft Teams? Uzyskaj natychmiastowe rozwiązania typowych problemów, takich jak „Coś poszło nie tak” lub „Logowanie się zapętla”. Przewodnik krok po kroku, jak rozwiązać problemy z logowaniem przez Internet w Teams i zachować produktywność. Zaktualizowano o najnowsze poprawki przeglądarki.
Masz problem z błędem w samouczku Microsoft Teams? Odkryj proste rozwiązania krok po kroku, aby szybko go rozwiązać. Wyczyść pamięć podręczną, zaktualizuj i wiele więcej, aby zapewnić płynną pracę zespołową. Zaktualizowano do najnowszych wersji!
Masz dość błędów odtwarzania multimediów w Microsoft Teams, które psują Twoje spotkania w 2026 roku? Skorzystaj z naszego eksperckiego przewodnika krok po kroku, aby szybko naprawić błędy dźwięku, obrazu i udostępniania – bez konieczności posiadania umiejętności technicznych. Bezproblemowa współpraca czeka!
Masz problem z błędem proxy w Microsoft Teams? Poznaj sprawdzone sposoby rozwiązywania problemów z ustawieniami proxy w Microsoft Teams. Wyczyść pamięć podręczną, dostosuj ustawienia proxy i wróć do płynnych połączeń w kilka minut dzięki naszemu przewodnikowi eksperta.
Frustruje Cię pętla uruchamiania ekranu powitalnego w Microsoft Teams? Postępuj zgodnie ze sprawdzonymi krokami rozwiązywania problemów z pętlą uruchamiania ekranu powitalnego w Microsoft Teams: wyczyść pamięć podręczną, zresetuj aplikację, zainstaluj ponownie. Wróć do płynnej współpracy w kilka minut!
Frustruje Cię brak pokoi spotkań w Teams? Odkryj najczęstsze powody, dla których nie widzisz pokoi spotkań w Teams i postępuj zgodnie z naszymi krok po kroku, aby w kilka minut uruchomić je płynnie. Idealne rozwiązanie zarówno dla organizatorów, jak i uczestników!
Napotkałeś dziś błąd w Microsoft Teams? Ten przewodnik krok po kroku dotyczący rozwiązywania problemów z Microsoft Teams ujawnia pierwsze kroki, które pozwolą szybko go rozwiązać. Szybkie poprawki dotyczące łączności, pamięci podręcznej i aktualizacji, które pozwolą Ci bezproblemowo wrócić do czatowania.
Frustruje Cię brak dodatku Microsoft Teams w Outlooku? Odkryj najważniejsze przyczyny i proste rozwiązania krok po kroku, aby bezproblemowo przywrócić płynną integrację Teams z Outlookiem. Działa z najnowszymi wersjami!
Odblokuj dokładne lokalizacje kluczy rejestru Microsoft Teams w systemie Windows 11. Przewodnik krok po kroku, jak je znaleźć, uzyskać do nich dostęp i bezpiecznie je modyfikować, aby zapewnić optymalną wydajność i rozwiązywać problemy. Niezbędny dla specjalistów IT i entuzjastów Teams.
Masz dość błędów skrótów w Microsoft Teams, które blokują Twój przepływ pracy? Poznaj sprawdzone sposoby na rozwiązanie błędów skrótów i awarii uruchamiania Microsoft Teams, aby zapewnić płynną współpracę. Szybkie i proste rozwiązania w pakiecie!
Odblokuj dokładne miejsca, w których Microsoft Teams przechowuje nagrania w 2026 roku. Poznaj lokalizacje OneDrive i SharePoint, wskazówki dotyczące szybkiego dostępu i profesjonalne triki, aby bez problemu odnajdywać pliki. Nigdy więcej nie zgubisz nagrania ze spotkania!
Masz problem ze znalezieniem folderu instalacyjnego Microsoft Teams na swoim komputerze? Ten przewodnik krok po kroku ujawnia dokładne ścieżki dla nowych i klasycznych instalacji Teams, dla poszczególnych użytkowników i komputerów. Oszczędź czas na rozwiązywaniu problemów!
Masz dość zawieszania się Microsoft Teams z powodu poważnego błędu? Skorzystaj ze sprawdzonej poprawki rejestru 2026, która rozwiąże problem w kilka minut. Przewodnik krok po kroku, zrzuty ekranu i wskazówki, jak uzyskać trwałą ulgę. Działa w najnowszych wersjach!
Dowiedz się, gdzie dokładnie znajduje się kod QR Microsoft Teams, umożliwiający superszybkie logowanie mobilne. Przewodnik krok po kroku z wizualizacjami, dzięki któremu połączysz się w kilka sekund — bez konieczności podawania hasła!
Frustruje Cię status „Nieobecny” w Microsoft Teams? Odkryj najczęstsze przyczyny, takie jak limity czasu bezczynności i ustawienia zasilania, a także rozwiązania krok po kroku, aby szybko przywrócić stan „Dostępny”. Zaktualizowano o najnowsze funkcje Teams.