Resultat 11 - 20 av 39
Metas multimodala AI kommer inte släppas i EU
EU:s ovanligt strikta integritets- och konkurrenslagstiftningar – särskilt för teknikjättarna – fortsätter att göra så att unionen får AI-produkter senare: eller kanske inte alls. Meta har nu berättat att företagets multimodala AI som kan hantera text, bild,Sammanhang: ...Apple angav den gången interoperabilitetskraven i Förordningen för digitala marknader som anledning. We will release a multimodal Llama model over the coming months, but not in the EU due to the unpredictable nature of the European regulatory environment....
Omnämnda platser: Förordningen, Iphones, Metas. Omnämnda personer: Apple Intelligence.
Vissa av Metas AI-modeller kommer inte till EU-länder
Meta är oroliga för hur de lirar med EU:s lagstiftning Det ser ut som om EU:s lagstiftning kan leda till att Meta inte kommer att erbjuda vissa av sina framtida AI-modeller i Llama-familjen till användare i EU, rapporterar Axios.Sammanhang: ...Meta är framför allt oroade för att deras datainsamling för att träna en multimodal språkmodell kan bryta mot EU:s GDPR-lag om Meta använder data från sina tjänster för att förse modellen med data. ...
Omnämnda platser: Metas, Meta.
Google lanserar Gemini-appen i Sverige
Googles minst sagt omtalade chattbott Gemini, tidigare känd som Bard, lanserades i USA redan i december månad förra året, men utrullningen till resten av världen har skett långsamt och i etapper. Under onsdagsförmiddagen lät Google Sverige meddela att Gemini-appenSammanhang: ...Det är ett viktigt första steg i att bygga en äkta AI-assistent som är konverserande, multimodal och hjälpsam. För att komma åt Gemini på Android behöver du ladda ner Gemini-appen eller opta in genom Google Assistant. ...
Omnämnda platser: Sverige, Europa, USA. Omnämnda personer: Google Sverige, Google Assistant.
Google släpper flera ai-nyheter
Just nu pågår Google I/O i San Francisco, och bolaget har radat upp produktnyheter. Bland annat att Project Starline, bolagets stora videokonferenssatsning kommer allt närmare en lansering. Google började arbeta med Starline 2021 och nu har bolaget tecknatSammanhang: ...Google kallar det för AI Overview och det är enligt bolaget den största förändringen av sökmotorn på många år. Genom att integrera en multimodal ai-modell i sökmotorn ska Google-svaren bli ännu bättre och mer utförliga. Dessutom släpper Google en ny TPU (Tensor Processing Unit). ...
Omnämnda personer: Project Starline.
Krönika: Mobilen ännu mer i centrum i Googles AI-vision
Jag kunde återge ett par av de mer imponerande exemplen (Kolla in ) men de gör sig inte nödvändigtvis bra i text. Vilket var poängen. När Google presenterade AI-motorn Gemini 1.5 Pro så nämndeSammanhang: ...När Google presenterade AI-motorn Gemini 1.5 Pro så nämnde man återkommande att den var designad från grunden för att vara multimodal. Det innebär att den kan ta till sig information i textform, bildform, som ljud eller video, och också producera information i dessa olika former. ...
Omnämnda platser: Googles.
Googles nya AI-assistent kan se sin omgivning i realtid
Google har visat upp en ny multimodal AI-assistent med arbetsnamnet Projekt Astra. Astra kan både höra och se sin omgivning och ge dig respons i realtid. I ett teknikdemo som Google visat upp kan assistenten skilja på olika saker i sin miljö och notera vartSammanhang: ...Google har visat upp en ny multimodal AI-assistent med arbetsnamnet Projekt Astra. Astra kan både höra och se sin omgivning och ge dig respons i realtid. ...
Omnämnda personer: Googles Gemini, Demis Hassabis.
Google ger imponerande glimt av multimodal AI innan I/O
Kanske för att kontra vad OpenAI just nu presenterar har Google givit en imponerande glimt av hur Gemini till synes tolkar video i realtid. Personen i klippet pratar med Gemini och frågar vad chattbotten tror pågår, medan kameran riktas mot en I/O-scen. GoogleSammanhang: ...Google ger imponerande glimt av multimodal AI innan I/O...
OpenAI introducerar nyheter i morgon: ”känns som magi”
Enligt flera rapporter arbetar OpenAI på någon slags sökmotor eller sökfunktion. OpenAI kommer presentera nyheter i morgon klockan 19:00 svensk tid – dagen innan Google I/O vilket sannolikt inte är en tillfällighet. Sam Altman säger dock att de varken kommerSammanhang: ...Vad OpenAI nu än kommer visa upp har det med ChatGPT och GPT-4 att göra och Altman säger att det ”känns som magi”. Enligt The Information kommer vi få se multimodal AI i stil med den som redan finns i Google Gemini och Google Lens. Multimodal AI innebär att chattbotten kan hantera och tolka annan input än text, så att användare exempelvis kan ställa frågor om bilder eller be chattbotten översätta text i bilder. ...
Omnämnda personer: Google Lens, Google Gemini.
Metas smartglasögon får videosamtal och multimodal AI
Metas och Ray-Bans smartglasögon har fått stöd för videosamtal via Whatsapp och Messenger, så att användare kan dela vad de ser med andra – hands-free. När videosamtal inleds ser motparten vad du ser tack vare glasögonens kamera. Nyheten kommer skickas utSammanhang: ...Nyheten kommer skickas ut gradvis så det kan dröja innan alla användare får tillgång till videosamtalen. Meta har därtill givit glasögonen multimodal AI vilket innebär att det går att ställa frågor om omgivningen. Ett exempel är att be glasögonen att berätta mer om en sevärdhet i synfältet, eller be Meta AI att översätta en restaurangmeny. ...
Omnämnda platser: Metas, USA, Kanada.
Ray-Ban Metas smarta glasögon får stor uppdatering
Med datorsyn och videosamtal Meta släpper nu en uppdatering till de smarta glasögon som man säljer tillsammans med Ray-Ban. Glasögonen har nu försetts med en så kallad " multimodal AI " som ger glasögonen möjlighet att avgöraSammanhang: ...Glasögonen har nu försetts med en så kallad " multimodal AI " som ger glasögonen möjlighet att avgöra vad det är användaren tittar på. Det kan till exempel handla om att identifiera maträtter, landmärken eller i stort sett vad som helst som användaren tittar på. ...
Omnämnda platser: Instagrams, Metas. Omnämnda personer: Eva Chen, Mark Zuckerberg.