Resultat 1 - 7 av 7
Microsofts AI får ett ansikte
Microsoft har lanserat ett nytt experiment i sin AI-assistent Copilot som ska göra samtal med chatboten mer mänskliga. Genom projektet Copilot Labs kan användare nu välja mellan fyrtio olika animerade avatarer som visar realistiska ansiktsuttryck och rörelserSammanhang: ...Avatarerna reagerar i realtid på vad som sägs, vilket ger en mer naturlig och personlig upplevelse jämfört med tidigare text- eller röstbaserade interaktioner. Tekniken bakom animationerna bygger på VASA-1, en avancerad AI-modell utvecklad av Microsoft Research. Den kan skapa trovärdiga ansiktsrörelser, inklusive huvud- och munrörelser, utifrån en enda stillbild. ...
Omnämnda platser: Storbritannien, Kanada, USA.
Copilot får animerade mänskliga ansikten
Microsoft har introducerat animerade mänskliga ansikten för Copilot vilka är tänkta att få chattbotten att kännas mer mänsklig och tillmötesgående. Användare kan välja mellan 40 olika ansikten vars ansiktsuttryck ändras i realtid beroende på vad som sägs.Sammanhang: ...Enligt Microsoft har användare sagt att ansikten skulle få röstsamtalen med chattbotten att kännas mer naturliga. Ansiktena animeras med hjälp av VASA-1 från Microsoft Research. VASA-1 kan generera ansiktsuttryck, huvud- och munrörelser endast utifrån en platt bild, utan 3D-modeller. ...
Omnämnda platser: Storbritannien, USA, Kanada.
Microsofts nya Vasa-1 för bra för att släppas – ”Kan missbrukas”
Microsoft har precis visat upp ny kraftfull ai-teknik – men verktyget kommer inte att bli publikt. Press Mjukvarujätten Microsoft fortsätter att storsatsa på artificiell intelligens. Teknikbolaget presenterade nyligen ett nytt verktyg som fått många atthöjaSammanhang: ...Teknikbolaget presenterade nyligen ett nytt verktyg som fått många att höja på ögonbrynen. Den nya ai-modellen heter Vasa-1, och kan användas för att generera ett synkroniserat videoklipp där människor talar eller sjunger. ...
Omnämnda platser: Vasa-1.
Microsoft-modell kan skapa en deepfake av bara en bild och ett ljudspår
Microsoft Research har nu visat upp AI-modellen VASA-1 som kan generera en deepfake-video av en person som talar genom att bara använda en enda bild och ett existerande ljudspår. Det hela uppmärksammades först av Ars Technica. Du kan se tekniken demonstrerasSammanhang: ...Microsoft Research har nu visat upp AI-modellen VASA-1 som kan generera en deepfake-video av en person som talar genom att bara använda en enda bild och ett existerande ljudspår. ...
Omnämnda personer: Ars Technica, Mona Lisa.
Mona Lisa rappar med Microsofts nya AI-verktyg
Forskare vid Microsoft har presenterat ett nytt AI-verktyg som kan få en stillbild av ett ansikte, som tavlan av Mona Lisa, att tala och bli till en realistisk video. Microsofts AI-verktyg, kallat VASA-1, kan automatiskt skapa en talande video av alla fotorealistiskaSammanhang: ...Forskare vid Microsoft har presenterat ett nytt AI-verktyg som kan få en stillbild av ett ansikte, som tavlan av Mona Lisa, att tala och bli till en realistisk video. Microsofts AI-verktyg, kallat VASA-1, kan automatiskt skapa en talande video av alla fotorealistiska bilder av ansikten, både riktiga fotografier, tecknade serier eller konstverk, det skriver CNN. [ ]...
Omnämnda platser: Microsofts. Omnämnda personer: Mona Lisa.
Microsoft visar upp deepfakes-AI
Kan generera videoklipp baserat på ett foto Microsoft Research Asia har visat upp en ny AI-modell som kan generera ganska realistiska videoklipp efter att AI:n matats med en bild och ett ljudspår.ModellenSammanhang: ...Här nedanför syns exempelvis en rappande Mona Lisa som Microsoft-forskarna genererat med hjälp av Vasa-1. Videos som genereras av Vasa-1 har för tillfället en upplösning på 512x512 pixlar och spelas upp i en hastighet av 40fps. ...
Omnämnda personer: Mona Lisa.
Microsoft VASA genererar talande ansikten i realtid
Microsoft har introducerat VASA: ett ramverk för att generera talande ansikten i realtid. Exemplen nedan visar personer som inte existerar. De talande ansiktena har skapats utifrån en enda bild och ett enda ljudklipp. Bild-till-video-modellen kan simuleraSammanhang: ...Bild-till-video-modellen kan simulera mänskliga ansiktsuttryck och får munnarna att röra sig korrekt tillsammans med talet. I realtidsläget kan VASA-1 generera videor med 40 bildrutor per sekund och med en latens på bara 170ms. Microsoft skriver att tekniken både har stor potential och risker. ...