Az I/O, a Google Mountain View-i Shoreline Amphitheatre-ben tartott éves fejlesztői konferenciájának végén Sundar Pichai, a Google vezérigazgatója felfedte, hogy a vállalat 121-szer mondta ki az „AI”-t. Lényegében ez volt a lényege a Google kétórás vitaindítójának – a mesterséges intelligencia bevezetése a Google összes alkalmazásába és szolgáltatásába, amelyet több mint kétmilliárd ember használ világszerte. Íme a Google által az eseményen bejelentett összes fontosabb frissítés.
Gemini 1.5 Flash és Gemini 1.5 Pro frissítések
A Google bejelentette a Gemini 1.5 Flash néven futó vadonatúj mesterséges intelligencia modellt, amely szerinte a sebességre és a hatékonyságra van optimalizálva. A Flash a Gemini 1.5 Pro és a Gemini 1.5 Nano, a cég legkisebb modellje között helyezkedik el, amely natívan fut az eszközön. A Google azt mondta, azért hozta létre a Flasht, mert a fejlesztők a Gemini Pro-nál könnyebb, olcsóbb modellt szerettek volna mesterségesintelligencia-alapú alkalmazások és szolgáltatások készítéséhez, miközben megtartanak néhány dolgot, például egy millió karakter hosszú kontextusablakát, amely megkülönbözteti a Gemini Pro-t a versengő modellektől. Idén a Google megduplázza a Gemini kontextusablakát 2 millió tokenre, ami azt jelenti, hogy 2 órányi videót, 22 órányi hangot és több mint 60 000 kódsort vagy több mint 1,4 millió szót tud majd feldolgozni egy lélegzetvétellel . az idő. .
Astra projekt
A Google bemutatta a Project Astra-t, egy globális mesterségesintelligencia-alapú asszisztens korai változatát, amely Demis Hassabis, a Google DeepMind vezérigazgatója szerint a Google egy mesterségesintelligencia-ügynökének a Google változata, „amely hasznos lehet a mindennapi életben”.
Egy videóban, amelyről a Google azt állítja, hogy egy felvételben készült, egy Astra-felhasználó a Google londoni irodájában járkál, kezében a telefonjával, és a kamerával különböző dolgokra – hangszóróra, valamilyen kódra a táblán, az ablakon kívül – irányítva természetes beszélgetést folytat. az alkalmazással, hogy hogyan néz ki. A videó egyik leglenyűgözőbb pillanatában pedig pontosan elmondja a felhasználónak, hogy hol hagyta korábban a szemüvegét anélkül, hogy a felhasználó felemelte volna a szemüvegét.
A videó meglepetéssel zárul – amikor a felhasználó megtalálja és felteszi a hiányzó szemüveget, megtudjuk, hogy beépített kamerarendszerrel rendelkezik, és a Project Astra segítségével zökkenőmentesen tudnak beszélgetni a felhasználóval, ami arra utalhat, hogy Lehet, hogy a Google a Meta Ray Ban okosszemüvegének versenytársán dolgozik.
Kérdezze meg a Google Képeket
A Google Fotók már akkor is okos volt, amikor konkrét fényképeket vagy videókat keresett, de a mesterséges intelligencia révén a Google új szintre emeli a dolgokat. Ha Ön Google One-előfizető az Egyesült Államokban, akkor feltehet egy összetett kérdést a Google Fotóknak, például: „Mutasd a legjobb fotót minden nemzeti parkból, amelyet meglátogattál”, amikor a funkciót a következő néhány év során bevezetik. hónapok. A Google Fotók az Ön GPS-adatait, valamint saját döntését, hogy mi a „legjobb”, felhasználja a lehetőségeket. Megkérheti a Google Fotókat is, hogy készítsen feliratokat a fotók közösségi médiában való közzétételéhez.
Nézd és képzeld el 3
A Google új, mesterséges intelligencia-alapú médiakészítő motorjai a Veo és az Imagine 3. A Veo a Google válasza az OpenAI Sorára. A Google azt mondta, hogy „kiváló minőségű” 1080p-s videókat tud készíteni, amelyek „több mint egy percig” tartanak, és képesek megérteni az olyan filmes koncepciókat, mint a time-lapse.
Eközben az Imagen 3 egy szöveg-kép generátor, amely a Google állítása szerint jobban kezeli a szöveget, mint elődje, az Imagen 2. Az eredmény a vállalat legjobb minőségű szöveg-kép modellje, amely „elképesztő részletgazdagsággal” és „realisztikus” , élethű képek.” ” és kevesebb műtárgy – ami lényegében szembeállítja az OpenAI DALLE-3-mal.
Nagy frissítések a Google Keresésben
A Google nagy változásokon megy keresztül a keresés alapvető működésében. A ma bejelentett frissítések többsége olyan, mintha valóban összetett kérdéseket tehetne fel („Keresse meg a legjobb jóga- vagy pilatesstúdiókat Bostonban, és tekintse meg a Beacon Hill-i ajánlatok és sétaidőpontok részleteit.”), és használja a keresést az étkezések és nyaralások megtervezéséhez. Csak akkor lesz elérhető, ha regisztrál a Search Labs szolgáltatásra, a cég platformjára, amely lehetővé teszi az emberek számára a béta funkciók kipróbálását.
De a nagy új funkció, amelyet a Google mesterséges intelligencia áttekintésnek nevez, és amelyet a cég már egy éve tesztel, végre több millió ember számára elérhetővé válik az Egyesült Államokban. A Google Search ezentúl alapértelmezés szerint a mesterséges intelligencia által generált válaszokat jeleníti meg a találatok tetején, és a cég szerint az év végéig több mint egymilliárd felhasználó számára elérhetővé teszi a funkciót szerte a világon.
Gemini Androidon
A Google közvetlenül integrálja a Geminit az Android rendszerbe. Amikor az Android 15 idén később megjelenik, a Gemini tudni fogja, hogy melyik alkalmazást, fotót vagy videót játszik le, és áthúzhatják fedvényként, és kontextusfüggő kérdéseket tehetnek fel neki. Hol marad ez a Google Asszisztens, aki már ezt teszi? kit ismersz! A Google ezt egyáltalán nem hozta szóba a mai vitaindító során.
Volt egy csomó más frissítés is. A Google bejelentette, hogy digitális vízjelekkel látja el a mesterséges intelligencia által generált videókat és szövegeket, elérhetővé teszi a Geminit a Gmail és a Dokumentumok oldalpaneljén, támogatja a mesterséges intelligenciával rendelkező virtuális kollégát a Workspace-ben, meghallgatja a telefonhívásokat, és észleli, hogy valóban átverik-e. idő, és még sok más.
Kövesse élőben a Google I/O 2024 híreit itt!
More Stories
Fekete mítosz: A Wukong 1.0.8.14860 frissítés néhány fontos javítást tartalmaz, és különösen egy főnököt gyengít
A Castlevania Dominus Collection fizikai megjelenése megerősítve, az előrendelések a következő hónapban indulnak
Az iPhone 16 még nem jelent meg, és valójában van miért várni az iPhone 17 megjelenéséig