- Meta släpper fem AI-forskningsmodeller för att stödja world innovation och ansvarsfull AI-utveckling.
- Chameleon-modellen kan bearbeta och generera både textual content och bilder samtidigt.
- Multi-token förutsägelse förbättrar effektiviteten i träningen av stora språkmodeller.
- JASCO-modellen erbjuder mer kontroll över AI-genererad musik genom att acceptera olika ingångar som ackord eller rytm.
- AudioSeal är en teknik för att upptäcka AI-genererat tal med högre hastighet och effektivitet.
- Meta utvecklar indikatorer och genomför studier för att öka mångfalden i text-till-bild genereringssystem.
Meta publicerar nya AI-forskningsmodeller för att påskynda innovation i stor skala. Meta’s Elementary AI Analysis (FAIR) crew släpper fem modeller, inklusive bild-till-text och text-till-musik genereringsmodeller, en multi-token förutsägelsemodell och en teknik för att upptäcka AI-genererat tal. Dessa modeller syftar until att främja ansvarig AI-utveckling och mångfald i text-till-bild genereringssystem.
Vilka modeller har Meta släppt för att stödja AI-innovation?
- Chameleon-modellen: En modell som kan bearbeta och generera både textual content och bilder samtidigt.
- En multi-token förutsägelsemodell: Denna modell förbättrar effektiviteten i träningen av stora språkmodeller.
- JASCO-modellen: En text-till-musik genereringsmodell som erbjuder mer kontroll över AI-genererad musik genom att acceptera olika ingångar som ackord eller rytm.
- AudioSeal: En teknik för att upptäcka AI-genererat tal med högre hastighet och effektivitet.
- Indikatorer och studier för att öka mångfalden i text-till-bild genereringssystem.
Dessa fem modeller och tekniker utgör kärnan i Metas nya AI-forskningsmodeller som syftar until att främja innovation och ansvarsfull AI-utveckling.
Chameleon-modellen är en AI-modell som kan bearbeta och generera både textual content och bilder samtidigt. Detta innebär att den har förmågan att:
Förstå och tolka både textinformation och visuell data.
Generera output som innehåller både textual content och bilder.
Växla mellan eller kombinera text- och bildmodaliteter i sina processer.
Denna multimodala förmåga gör Chameleon-modellen särskilt flexibel och mångsidig jämfört med modeller som bara kan hantera en typ av information (t.ex. endast textual content eller endast bilder).