Home
» Wiki
»
Lista funkcji, których użytkownicy oczekują od Apple Intelligence
Lista funkcji, których użytkownicy oczekują od Apple Intelligence
Premiera Apple Intelligence wywołała wiele emocji, lecz nadal jest wiele do zrobienia. Apple mogłoby dodać kilka funkcji, które uczyniłyby go jeszcze lepszym. Oto pomysł, dzięki któremu funkcje sztucznej inteligencji firmy Apple mogłyby osiągnąć nowy poziom.
1. Więcej narzędzi do edycji zdjęć
MacBook korzysta z funkcji Oczyszczanie w aplikacji Zdjęcia, która umożliwia usuwanie wielu osób ze zdjęć.
Apple Intelligence oferuje tylko jedną główną funkcję edycji zdjęć o nazwie Clean Up, podobną do Magic Eraser firmy Google, która umożliwia usuwanie niechcianych obiektów ze zdjęć. Choć jest to mile widziana nowość, nie jest ona przełomowa, zwłaszcza że Google i Samsung oferują podobne narzędzia już od dłuższego czasu.
Oprócz Clean Up Apple Intelligence oferuje bardzo niewiele narzędzi do edycji zdjęć. Z kolei Google Pixel 9 ma mnóstwo świetnych funkcji AI, takich jak Add Me, która dba o to, aby wszyscy byli uwzględnieni na zdjęciach grupowych, czy Reimagine, która pozwala zastąpić części zdjęcia samymi podpowiedziami tekstowymi. Świetnie byłoby, gdyby Apple wzięło przykład z Google i wprowadziło podobne funkcje.
Osoby, które nie są dobre w edycji zdjęć, chętnie skorzystałyby z funkcji umożliwiającej tworzenie filtrów w oparciu o podpowiedzi tekstowe. Możesz opisać, jakie kolory chcesz bardziej podkreślić lub jaki klimat chcesz uzyskać, a model AI wygeneruje filtr odpowiadający temu opisowi.
2. Twórz bardziej realistyczne obrazy
Plac zabaw obrazów na iPadzie
Firma Apple wprowadziła również nową aplikację o nazwie Image Playground, będącą częścią Apple Intelligence. Umożliwia ona użytkownikom tworzenie obrazów z komunikatów tekstowych w trzech różnych stylach graficznych: animacja, ilustracja i szkic. Aplikacja integruje się bezproblemowo z aplikacjami takimi jak Wiadomości i platformami innych firm. Chociaż wdrożenie odbyło się sprawnie, wyniki nie były imponujące.
Chociaż model ten dobrze współpracuje z Genmoji, co umożliwia tworzenie zupełnie nowych, spersonalizowanych emotikonów za pomocą podpowiedzi tekstowych, powinien mieć bardziej realistyczny styl graficzny.
3. Sprawdź połączenie
Jedną z moich ulubionych funkcji w telefonie Google Pixel jest filtrowanie połączeń. Asystent Google odbiera połączenia w Twoim imieniu i zapewnia transkrypcję na żywo, pomagając Ci podjąć decyzję, czy odebrać połączenie, czy nie. Asystent Google może nawet odbierać w Twoim imieniu połączenia z nieznanych numerów, a jeśli wykryje, że jest to połączenie automatyczne lub spam, Asystent Google automatycznie się rozłączy, nie zwracając na Ciebie uwagi.
Świetnie byłoby, gdyby Siri mogła zrobić coś podobnego i tworzyć automatyczne odpowiedzi na podstawie kontekstu. Na przykład, jeśli Twój iPhone wykryje, że jesteś poza domem, Siri może automatycznie poprosić dostawcę o pozostawienie przesyłki pod Twoimi drzwiami.
Niestety, obecnie możliwości Apple Intelligence ograniczają się do tworzenia transkrypcji i dostarczania podsumowań rozmów telefonicznych, ale Apple powinno rozważyć rozszerzenie tej dziedziny.
4. Lepsze funkcje tłumaczenia na żywo
Galaxy AI Live Translate podczas rozmów telefonicznych na S24 Ultra
Chociaż do podstawowych zadań, takich jak wprowadzanie tekstu i jego odczytywanie na głos w innym języku, można używać wbudowanej aplikacji Tłumacz, Apple Intelligence potrafi zrobić o wiele więcej.
Użytkownicy naprawdę chcą mieć narzędzia do tłumaczenia w czasie rzeczywistym, które będą działać w całym systemie. Doskonałym przykładem jest funkcja Live Translate firmy Samsung, która umożliwia transkrypcję i tłumaczenie rozmów w czasie rzeczywistym podczas rozmów telefonicznych. Google oferuje również podobne funkcje, które płynnie współpracują ze sobą w wielu aplikacjach, a całe przetwarzanie odbywa się na urządzeniu.
Ponieważ zarówno Samsung, jak i Google wdrożyły już tę funkcję, a ich modele sprawnie działają na urządzeniach, nie jest jasne, dlaczego Apple nie skupia się na funkcjach tłumaczenia za pomocą Apple Intelligence.
5. Możliwość wyboru LLM innej firmy
Przypomnienie o korzystaniu z ChatGPT na iPhonie
Choć Siri przechodzi znaczącą modernizację, obejmującą m.in. rozpoznawanie obrazu na ekranie, nadal może nie być w stanie obsłużyć wszystkich żądań. Aby wypełnić te luki, aplikacja korzysta z narzędzia ChatGPT jako rozwiązania zapasowego, umożliwiającego generowanie odpowiedzi lub udzielanie odpowiedzi na pytania dotyczące zdjęć lub dokumentów.
Chociaż ChatGPT jest świetnym rozwiązaniem, wiele osób chciałoby móc wybierać, z którego zewnętrznego narzędzia LLM chcą korzystać, podobnie jak można zmienić domyślną wyszukiwarkę. Widzieliśmy alternatywy dla ChatGPT, które są bardzo skuteczne w przypadku określonych zadań. Jeszcze lepiej byłoby, gdyby użytkownicy mogli ustawiać preferencje dla różnych zadań; Na przykład, automatycznie użyj Claude'a do pytań związanych z obrazami, ale przełącz się na Gemini lub ChatGPT do generowania tekstu.
Oto funkcje, które użytkownicy chcą zobaczyć w Apple Intelligence. Mimo wszystko jest na co czekać, gdy zobaczymy, jak pakiet sztucznej inteligencji od Apple wypada na tle oferty Google i Samsunga. Mimo że funkcja Apple Intelligence nie jest dostępna publicznie, można ją wypróbować w wersjach beta systemów iOS 18.1 i macOS 15.1. Pamiętaj, że działanie aplikacji może nie być w pełni stabilne, ponieważ jest to wciąż wczesna wersja testowa.