Na wydarzeniu Search On pokazaliśmy, jak dzięki rozwijaniu systemów uczących się sprawiamy, że wyszukiwanie staje się coraz bliższe obecnemu postrzeganiu świata przez ludzi. Zaobserwowaliśmy potrzebę uzyskiwania nowych rodzajów i form informacji – jest to na przykład chęć zrozumienia języka, wyszukiwania obrazem lub bliższego poznania otaczającej nas rzeczywistości. Aby sprostać tym oczekiwaniom, proponujemy zupełnie nowe sposoby wyszukiwania informacji.
Rozwinęliśmy możliwości wyszukiwania wizualnego, które jest teraz bardziej naturalne niż kiedykolwiek dotąd. Staramy się też, aby korzystanie z zasobów informacji było coraz bardziej intuicyjne. A oto kilka szczegółów.
Nieszablonowe podejście do wyszukiwania
Dzięki Obiektywowi Google możecie zdobywać informacje o otaczającym Was świecie, korzystając z aparatu lub zrzutów ekranu. Co miesiąc ludzie używają tej funkcji, aby poznać odpowiedzi na ponad 8 milionów pytań. Chcemy sprawić, aby wyszukiwanie wizualne było jeszcze bardziej naturalne, dlatego wprowadzamy funkcję multiwyszukiwania. To prawdziwy kamień milowy. Aby skorzystać z multiwyszukiwania, wystarczy zrobić zdjęcie lub zrzut ekranu, a następnie dodać do niego tekst – zupełnie tak, jakby w naturalny sposób wskazać coś palcem i zadać pytanie. Funkcja ta jest dostępna na całym świecie w języku angielskim, a w ciągu kilku najbliższych miesięcy będzie udostępniana w ponad 70 językach.
Na konferencji Google I/O zapowiedzieliśmy, że zamierzamy jeszcze bardziej ulepszyć tę funkcję, wprowadzając „multiwyszukiwanie w pobliżu”. Teraz będzie można zrobić zdjęcie lub zrzut ekranu, np. jakiegoś dania lub przedmiotu, a następnie błyskawicznie wyszukać tę rzecz w swojej okolicy. Ten nowy sposób wyszukiwania umożliwia znalezienie lokalnych firm – możecie zrobić zakupy w osiedlowym sklepie albo wyszukać coś, czego w danej chwili pilnie potrzebujecie. Multiwyszukiwanie w pobliżu zaczniemy wdrażać w języku angielskim jesienią tego roku.
Jednym z aspektów rozpoznawania wizualnego, który daje największe możliwości, jest zdolność do przełamywania barier językowych. Dzięki Obiektywowi Google wyszliśmy poza tłumaczenie tekstu i zaczęliśmy tłumaczyć obrazy. Ludzie już teraz używają Google do tłumaczenia tekstu na obrazach ponad miliard razy w miesiącu, w ponad 100 językach.
Dzięki błyskawicznemu rozwojowi systemów uczących się jesteśmy w stanie łączyć tłumaczony tekst z rozbudowanymi obrazami, co w rezultacie daje jeszcze bardziej naturalny efekt. Zoptymalizowaliśmy nasze modele systemów uczących się tak, aby proces ten zajmował zaledwie 100 milisekund – to mniej niż mrugnięcie okiem. Funkcja ta korzysta z generatywnych sieci przeciwstawnych, tak zwanych modeli GAN, czyli technologii, która wykorzystywana jest również do działania magicznej gumki na Pixelu. Ulepszenie to wdrożymy jeszcze w tym roku.
Ilość informacji dostępnych na wyciągnięcie ręki jest w dzisiejszych czasach nieporównywalna z żadnym innym momentem w historii ludzkości. Co więcej, postęp w rozwoju sztucznej inteligencji diametralnie zmieni sposób, w jaki korzystamy z tych informacji. To da nam możliwość odkrycia nowych niuansów, które pomogą zarówno w codziennym życiu, jak i w sposobach radzenia sobie ze złożonymi globalnymi wyzwaniami.
Podczas wydarzenia Search On transmitowanego dzisiaj na żywo, podzieliliśmy się zastosowaniem najnowszych osiągnięć sztucznej inteligencji w produktach Google. Pokazaliśmy użytkownikom nowe, intuicyjne sposoby na wyszukiwanie i pogłębioną analizę informacji.
Zespół prasowy jest dostępny pod adresem e-mail: [email protected] Odpowiedzi udzielamy wyłącznie przedstawicielom prasy. W przypadku wszystkich pozostałych pytań zapoznaj się z możliwościami kontaktu.