Sortera på relevans Sorterad på datum
Resultat 1 - 10 av 26

Google släpper flera ai-nyheter

Just nu pågår Google I/O i San Francisco, och bolaget har radat upp produktnyheter. Bland annat att Project Starline, bolagets stora videokonferenssatsning kommer allt närmare en lansering. Google började arbeta med Starline 2021 och nu har bolaget tecknat

Sammanhang: ...Google kallar det för AI Overview och det är enligt bolaget den största förändringen av sökmotorn på många år. Genom att integrera en multimodal ai-modell i sökmotorn ska Google-svaren bli ännu bättre och mer utförliga. Dessutom släpper Google en ny TPU (Tensor Processing Unit). ...

Omnämnda personer: Project Starline.

telekomidag.se - https://telekomidag.se/google-slapper-flera-ai-nyheter/ - 1380 - Datum: 2024-05-16 12:15. - Leta efter artikeln på Archive.today »

Krönika: Mobilen ännu mer i centrum i Googles AI-vision

Jag kunde återge ett par av de mer imponerande exemplen (Kolla in ) men de gör sig inte nödvändigtvis bra i text. Vilket var poängen. När Google presenterade AI-motorn Gemini 1.5 Pro så nämnde

Sammanhang: ...När Google presenterade AI-motorn Gemini 1.5 Pro så nämnde man återkommande att den var designad från grunden för att vara multimodal. Det innebär att den kan ta till sig information i textform, bildform, som ljud eller video, och också producera information i dessa olika former. ...

Omnämnda platser: Googles.

mobil.se - https://www.mobil.se...on/1564872 - 6113 - Datum: 2024-05-15 16:15. - Leta efter artikeln på Archive.today »

Googles nya AI-assistent kan se sin omgivning i realtid

Google har visat upp en ny multimodal AI-assistent med arbetsnamnet Projekt Astra. Astra kan både höra och se sin omgivning och ge dig respons i realtid. I ett teknikdemo som Google visat upp kan assistenten skilja på olika saker i sin miljö och notera vart

Sammanhang: ...Google har visat upp en ny multimodal AI-assistent med arbetsnamnet Projekt Astra. Astra kan både höra och se sin omgivning och ge dig respons i realtid. ...

Omnämnda personer: Googles Gemini, Demis Hassabis.

sweclockers.se - https://www.sweclock...-i-realtid - 1293 - Datum: 2024-05-15 12:18. - Leta efter artikeln på Archive.today »

Google ger imponerande glimt av multimodal AI innan I/O

Kanske för att kontra vad OpenAI just nu presenterar har Google givit en imponerande glimt av hur Gemini till synes tolkar video i realtid. Personen i klippet pratar med Gemini och frågar vad chattbotten tror pågår, medan kameran riktas mot en I/O-scen. Google

Sammanhang: ...Google ger imponerande glimt av multimodal AI innan I/O...

swedroid.se - https://swedroid.se/...innan-i-o/ - 691 - Datum: 2024-05-13 20:18. - Leta efter artikeln på Archive.today »

OpenAI introducerar nyheter i morgon: ”känns som magi”

Enligt flera rapporter arbetar OpenAI på någon slags sökmotor eller sökfunktion. OpenAI kommer presentera nyheter i morgon klockan 19:00 svensk tid – dagen innan Google I/O vilket sannolikt inte är en tillfällighet. Sam Altman säger dock att de varken kommer

Sammanhang: ...Vad OpenAI nu än kommer visa upp har det med ChatGPT och GPT-4 att göra och Altman säger att det ”känns som magi”. Enligt The Information kommer vi få se multimodal AI i stil med den som redan finns i Google Gemini och Google Lens. Multimodal AI innebär att chattbotten kan hantera och tolka annan input än text, så att användare exempelvis kan ställa frågor om bilder eller be chattbotten översätta text i bilder. ...

Omnämnda personer: Google Lens, Google Gemini.

swedroid.se - https://swedroid.se/...-som-magi/ - 941 - Datum: 2024-05-12 13:18. - Leta efter artikeln på Archive.today »

Metas smartglasögon får videosamtal och multimodal AI

Metas och Ray-Bans smartglasögon har fått stöd för videosamtal via Whatsapp och Messenger, så att användare kan dela vad de ser med andra – hands-free. När videosamtal inleds ser motparten vad du ser tack vare glasögonens kamera. Nyheten kommer skickas ut

Sammanhang: ...Nyheten kommer skickas ut gradvis så det kan dröja innan alla användare får tillgång till videosamtalen. Meta har därtill givit glasögonen multimodal AI vilket innebär att det går att ställa frågor om omgivningen. Ett exempel är att be glasögonen att berätta mer om en sevärdhet i synfältet, eller be Meta AI att översätta en restaurangmeny. ...

Omnämnda platser: Metas, USA, Kanada.

swedroid.se - https://swedroid.se/...imodal-ai/ - 642 - Datum: 2024-04-24 11:18. - Leta efter artikeln på Archive.today »

Ray-Ban Metas smarta glasögon får stor uppdatering

Med datorsyn och videosamtal Meta släpper nu en uppdatering till de smarta glasögon som man säljer tillsammans med Ray-Ban. Glasögonen har nu försetts med en så kallad " multimodal AI " som ger glasögonen möjlighet att avgöra

Sammanhang: ...Glasögonen har nu försetts med en så kallad " multimodal AI " som ger glasögonen möjlighet att avgöra vad det är användaren tittar på. Det kan till exempel handla om att identifiera maträtter, landmärken eller i stort sett vad som helst som användaren tittar på. ...

Omnämnda platser: Instagrams, Metas. Omnämnda personer: Eva Chen, Mark Zuckerberg.

feber.se - https://feber.se/mob...edium=feed - 1527 - Datum: 2024-04-24 10:17. - Leta efter artikeln på Archive.today »

OpenAI kan släppa GPT-5 i sommar

Ska vara "materiellt bättre" OpenAI sägs planera att lansera sin nästa stora språkmodell, GPT-5, under sommaren. Denna nya version förväntas erbjuda relativt stora förbättringar, om vi får tro tidiga testare. Företaget ska redan

Sammanhang: ...L s vidare och kommentera: https://feber.se/internet/openai-kan-slappa-gpt-5-i-sommar/465895/ L s mer om OpenAI , GPT-5 , ChatGPT , AI-agenter , multimodal ...

feber.se - https://feber.se/int...edium=feed - 1244 - Datum: 2024-03-21 14:17. - Leta efter artikeln på Archive.today »

Roboten talar med dig – och plockar skräp samtidigt

Människan säger till roboten: kan du förklara varför du gjorde som du gjorde medan du plockar upp det här skräpet? Roboten, som kallas Figure 01, plockar upp skräpet och börjar berätta. Det här är en del av den senaste demonstrationen från amerikanska startupbolaget

Sammanhang: ...Då laddas särskilda neurala nätverksvikter på gpu:n och en policy körs”, skriver Corey Lynch. Att kombinera Figure 01 med en multimodal modell ger, som Lynch noterar, intressanta nya färdigheter. ”Den kan översätta högnivå-uppmaningar som ’jag är hungrig’ till sammanhangsanpassade beteenden som ’ge personen ett äpple’.” ...

Omnämnda platser: Tesla, Figure. Omnämnda personer: Corey Lynch, Google Deepmind, Boston Dynamics.

nyteknik.se - https://www.nyteknik...ng/4244555 - 2378 - Datum: 2024-03-15 08:17. - Leta efter artikeln på Archive.today »

Honda presenterar Extended Reality Mobility Experience

En rullstol för VR-upplevelser Honda har visat upp något som man kallar för "Extended Reality Mobility Experience" som man tror kan bli intressant för lite mer mobila VR-upplevelser. Hondas XR-lösning

Sammanhang: ...By combining the unique, physical experience of riding the Honda UNI-ONE with highly immersive digital entertainment, Honda is creating a brand new multimodal experience that takes extended reality technologies to the next level." Honda visade upp rullstolen Uni-One redan för två år sedan och sa förra året att man planerade att hyra ut den till intresserade för motsvarande cirka 8000 kronor i månaden. ...

Omnämnda platser: Austin, Texas, New Business. Omnämnda personer: Extended Reality, Mobility Experience.

feber.se - https://feber.se/pry...edium=feed - 1612 - Datum: 2024-02-29 10:17. - Leta efter artikeln på Archive.today »


nyhet
Resultatsidor:
r
1
r
2
r
3
fram