Resultat 1 - 9 av 9
”Tragiskt” – CVE-programmet hotat efter indragen finansiering
Även om National Institute of Standards and Technology (NIST) berikar MITRE:s CVE-register med ytterligare information genom sin National Vulnerability Database (NVD), och CISA har hjälpt till att berika MITRE:s CVE-register med sitt ”vulnrichment”-program,Sammanhang: ...För det fjärde, hundratals, om inte tusentals, nationella / regionala CERT runt om i världen, har inte längre den källan till gratis sårbarhetsinformation. För det femte, kommer alla företag i världen som förlitade sig på CVE/NVD för sårbarhetsinformation att uppleva snabba och skarpa smärtor i sitt program för sårbarhetshantering.” ...
Omnämnda platser: Kina, Rysslands, Department. Omnämnda personer: Brian Martin, Elon Musks.
AI kan skapa kod men inte gemenskap
Det här är inte bara siffror; de är ett tydligt tecken på att utvecklare i allt högre grad tycker att LLM är ett snabbare och enklare alternativ till att kamma igenom tusentals Q&A-trådar. Det här skulle inte vara en så stor sak om det bara handlade om attSammanhang: ...När engagemanget minskar minskar också utbudet av färskt, mångsidigt och mänskligt kurerat innehåll. Vad händer när den primära källan med träningsdata börjar sina? Om färre utvecklare publicerar sina detaljerade lösningar och verkliga problem online kommer AI-modeller i allt högre grad att förlita sig på föråldrad eller återvunnen information. ...
Omnämnda platser: Stack.
Chattbotar förvränger fakta om nyheter
Nyligen uppmärksammade vi att dagens AI-modeller har usel koll på världshistorien, men nu står det klart att de även har usel koll på aktuella händelser. Brittiska BBC har låtit Chat GPT, Copilot, Gemini och Perplexity svara på hundra frågor där BBC:sartiklarSammanhang: ...Vart femte svar (19 procent) baseras på direkt felaktiga fakta och 13 procent av citaten har modifierats jämfört med källan. ...
Omnämnda platser: Copilot. Omnämnda personer: Chat GPT.
Försvarsmakten bygger upp sina ledningssystem – ”ska kunna vinna ett krig”
– Där tror jag att det blir viktigt att få AI så nära källan som möjligt genom att ha ”vattenstämplar” nära sensorn för att kvalitetssäkra kedjan – för andra kommer att försöka påverka data för att lura AI, det är nästa steg i utvecklingen. Avgörande förSammanhang: ...– Där tror jag att det blir viktigt att få AI så nära källan som möjligt genom att ha ”vattenstämplar” nära sensorn för att kvalitetssäkra kedjan – för andra kommer att försöka påverka data för att lura AI, det är nästa steg i utvecklingen. ...
Omnämnda platser: Europa, Nato. Omnämnda personer: Mattias Hanson.
Nya funktionen Citations ska göra Anthropics AI-verktyg mer korrekta
Anthropic har lanserat Citations, en ny funktion som syftar till att minimera antalet fel och hallucinationer i det populära AI-verktyget Claude. Som namnet antyder kommer Citations att kunna hänvisa till källan för ett visst påstående, och funktionenärSammanhang: ...Som namnet antyder kommer Citations att kunna hänvisa till källan för ett visst påstående, och funktionen är en del i Anthropics API för utvecklare. Till en början kommer Citations endast vara tillgänglig i Claude 3.5 Sonnet och Claude 3.5 Haiku, men förhoppningsvis läggs funktionen till i fler AI-modeller så småningom. ...
Omnämnda personer: Anthropics API.
El-hungriga datacenter skriker efter kärnkraft
Dessutom, säger Matt Kimball, chefsanalytiker på Moor Insights & Strategy, är SMR inte en mindre version av Three Mile Island eller Tjernobyl. – Förutom att de är betydligt mindre kräver de mindre bränsle, de kan klara sig i upp till 30 år utan bränslepåfyllning,Sammanhang: ... – Det som lockar med kärnkraft i en värld där man försöker göra elnätet koldioxidfritt är att det verkligen är den enda bevisat tillförlitliga källan till koldioxidfri energi, en källa som genererar när jag behöver den, och jag kan garantera att kapaciteten finns där, förutom under bränsle- eller underhållsperioderna, säger Dietrich på Uptime Institute...
Omnämnda platser: Storbritannien, GPU:er, Kanada. Omnämnda personer: Peterson Corio, Scott Burnell, Info-Tech Research Group.
5 heta trender på molnmarknaden du behöver ha koll på
”Kapacitetstillväxten kommer i allt högre grad att drivas av den ännu större skalan i de nyöppnade datacentren, där generativ AI-teknik är en viktig anledning till den ökade skalan”, skriver Synergy Research. Inte helt överraskande är Amazon, Microsoft ochSammanhang: ...Dessutom innebär nya datacenter för publika moln fler tillgänglighetszoner och färre latens- och prestandaproblem i samband med att användarna inte befinner sig fysiskt nära källan till molnbaserade applikationer och data. Branschmoln fortsätter att öka Branschmoln, industry cloud, är specialiserade molnmiljöer som är skräddarsydda för att uppfylla de unika kraven inom specifika sektorer och erbjuder förkonfigurerade lösningar...
Omnämnda platser: Indiana, Virginia, Kansas City. Omnämnda personer: Synergy Research, Cedar Rapids, Morpheus Data.
Kritik mot Open AI efter hallucinationer i populärt AI-verktyg
En närmare granskning av Whisper visar att det AI-baserade transkriberingsverktyget har en benägenhet att hallucinera, det vill säga att hitta på saker som inte finns i källan. Enligt nyhetsbyrån AP har en utvecklare hittat hallucinationer i nästan alla26Sammanhang: ...En närmare granskning av Whisper visar att det AI-baserade transkriberingsverktyget har en benägenhet att hallucinera, det vill säga att hitta på saker som inte finns i källan. Enligt nyhetsbyrån AP har en utvecklare hittat hallucinationer i nästan alla 26 000 granskade transkriptioner, medan en studie från University of Michigan visar att det finns allvarliga fel i 80 procent av transkriptionerna. ...
NIST lanserar plattform för att utvärdera generativ AI
National Institute of Standards and Technology (NIST), en organisation som drivs av USA:s handelsdepartement, har nu lanserat NIST GenAI, ett nytt program som ska utvärdera generativ AI-tekniks kapacitet och begränsningar. Det hela uppmärksammades först avSammanhang: ...NIST GenAI kommer att släppa referensmått som kan användas för att skapa system som kan avgöra digitalt innehålls autenticitet och användas för att utveckla mjukvara som kan identifiera källan till AI-genererat innehåll som är fejkat eller vilseledande. NIST GenAI:s första projekt är en pilotstudie för att bygga ett system som ska kunna skilja mellan mänskligt skapad och AI-genererad text. ...