Resultat 1 - 9 av 9
ShowCase: Tre program som demonstrerar AI med Geforce RTX 40-serien
Med Geforce RTX 40-serien har Nvidia lagt mycket krut på att ge förutsättningar för nästa generations AI-applikationer. Den nya arkitekturen Ada Lovelace tillsammans med den fjärde generationens Tensor-kärnor gör det möjligt att använda AI både i realtidochSammanhang: .... ► Ladda ned Nvidia ChatRTX – privat chatbot i din dator En demoapp med GPT-baserade språkmodeller (LLM) kopplad till ditt eget innehåll – dokument, anteckningar bilder eller annan data. Med hjälp av Retrieval-Augmented Generation (RAG), TensorRT-LLM och RTX-accelerering kan du fråga en anpassad chatbot och snabbt få kontextuellt relevanta svar. ...
Omnämnda platser: Geforce. Omnämnda personer: Emil Hansson, Retrieval-Augmented Generation.
IBM släpper AI-assistent till stordatorer
IBM lanserar nu den nya AI-assistenten WatsonX Assistant for Z v1 för att förenkla automation och hjälpa kunder med rutinuppgifter på IBM:s plattform för stordatorer. Användare kan importera befintlig automation skapad med Ansible, JCL och REXX som färdigheterSammanhang: ...Den använder också Z-domänspecifik retrieval-augmented generation (RAG) för att leverera kurerat innehåll till användaren. Exempelvis kan assistenten generera svar på frågor från IBM Z-användare med Z-specifikt innehåll samt rekommendera relevanta automatiserade färdigheter som kan användas. ...
Omnämnda personer: WatsonX Assistant.
Snart går det att bygga AI-agenter i Copilot Studio
Dessutom meddelade Microsoft att man kommer att lägga till copilot connectors i Copilot Studio för att förenkla för utvecklare att koppla sina affärs- och samarbetsdata till sina copilots. Copilot-anslutningar inkluderar mer än 1 400 Microsoft Power Platform-anslutningar,Sammanhang: ...Till skillnad från Microsofts Copilot Studio riktar sig Azure AI Studio till professionella utvecklare som kan välja generativa AI-modeller och använda dem för RAG (retrieval augmented generation) med hjälp av vektorinbäddningar, vektorsökning och egna datakällor....
Omnämnda platser: Google, Microsofts. Omnämnda personer: Microsoft Graph.
Nya AI-funktioner och nytt namn – Oracle Database 23c blir 23ai
Hård konkurrens från databasrivaler tvingade Oracle att ändra sin strategi för sin databasverksamhet till förmån för utvecklare, som kunde erbjuda företaget en välbehövlig drivkraft för tillväxt. I september förra året berättade Oracle på sin årliga CloudWorld-konferensSammanhang: ...AI Vector Search i Database 23c, som har överförts till 23ai tillsammans med andra funktioner, stöder enligt företaget också RAG (retrieval-augmented generation), en generativ AI-teknik som kombinerar stora språkmodeller (LLM) och privata affärsdata för att leverera svar på frågor på naturligt språk. ...
Omnämnda platser: Duality. Omnämnda personer: Oracle Exadata Cloud@Customer, Oracle Base.
Nu kommer generativ ai till Telia Ace-plattformen
Enligt Telia kommer det dessutom bli enklare att introducera nyanställda med hjälp av den nya plattformen, samtidigt som man inte kommer att behöva lägga tid och energi på att översätta mellan olika språk. Gratis nyhetsbrev! De viktigaste nyheterna direktSammanhang: ...Det som vi gör på ett smart sätt är att förse modellen med rätt innehåll sammanställt från olika datakällor, så kallad RAG (Retrieval-Augmented Generation). Genom att göra det på ett sofistikerat sätt minskar vi kostnaden för att nyttja den generativa ai-modellen. ...
Omnämnda platser: Ace, Telekom. Omnämnda personer: Fredrik Lemming, Retrieval-Augmented Generation.
Svenskar ska få chattrobotar mer pålitliga
Tech TT Färre hallucinationer – mer fakta. Svenska forskare hoppas att man med hjälp av ny teknik snart ska kunna lita på chattbotarna. Fredrik Heintz, professor och AI-expert vid Linköpings universitet. Språkmodeller kan tränas med hjälp av superdatorer.Sammanhang: ...Inom AI-kretsar blickar man hoppfullt mot retrieval-augmented generation, RAG. Det innebär att systemet söker efter faktamässig kunskap i en viss databas, som språkmodellen använder som bas för att generera sitt svar. ...
Omnämnda platser: Berzelius, Bibliotek, Europa. Omnämnda personer: Chat GPT, Trust LLM, Googles Bard.
Så fungerar Open AI:s nya o1-modeller
“För resonemangsproblem i verkligheten, hur (modellen) ska bestämma när man ska sluta söka? Vad är belöningsfunktionen? Framgångskriterium? När ska man kalla in verktyg som kodtolkar i loopen? Hur kan man ta hänsyn till beräkningskostnaden för dessa CPU-processer?Sammanhang: ...Open AI råder också företag att använda retrieval-augmented generation (RAG) annorlunda för de nya modellerna. Till skillnad från användningen av RAG för närvarande, där rådet är att potentiellt stoppa in så många relevanta dokument som möjligt, föreslår OpenAI att användarna i fallet med de nya modellerna endast ska inkludera den mest relevanta informationen för att förhindra att modellen överkomplicerar sitt svar, förklarar Wilson. ...
Omnämnda platser: Alternativt. Omnämnda personer: Chat GPT, Chat GPT Enterprise-, Simon Wilson.
”Konsten att integrera moln, ai och automation i telekomindustrin”
Liksom många branscher anpassar sig telekommunikationsbranschen till molnbaserade lösningar, men det är få företag som flyttar allt till det offentliga molnet. Olika operativa miljöer behövs för att hantera varierande arbetsbelastningar med hänsyn till efterlevnad,Sammanhang: ...Användningen av ai för att optimera infrastruktur är fortfarande i ett tidigt skede men förväntas få en allt större betydelse i takt med att generativ ai och stora språkmodeller (llm) utvecklas. Ett särskilt viktigt koncept är retrieval augmented generation (rag), där stora språkmodeller utnyttjar externa kunskapskällor såsom aktuella realtidsdata och kontextuell, proprietär eller domänspecifik information. ...
Omnämnda personer: Honoré LaBourdette, Telco Partner.
"Så kan man bygga generativ AI utan felaktiga resultat"
Företag världen över är angelägna om att dra nytta av kraften i generativ AI, men många brottas med frågan om tillförlitlighet: hur bygger man en generativ AI-applikation som ger svar baserad på korrekt information? Den här frågan har gäckat branschenSammanhang: ...Detta lager mellan användargränssnittet och LLM kan också använda sig av en teknik som kallas Retrieval Augmented Generation, eller RAG, för att hämta data från en betrodd källa som finns utanför LLM:en. Möjligheten att förklara valet av källa för data är ett område där sökmotorer har utmaningar, men det är något som generativa AI-applikationer måste vara tydliga med för att bygga upp ett större förtroende. ...
Omnämnda platser: LLM:en, Europas. Omnämnda personer: Principal Architect, Mats Stellwall.