Microsoft verdubbelt de inzet van AI-modellen die geen grote taalmodellen zijn. Het bedrijf maakte donderdag bekend dat het drie nieuwe modellen uitbrengt: gloednieuwe modellen voor spraak- en teksttranscriptie, en de tweede generatie van het eigen beeldmodel.
De spraak- en teksttranscriptiemodellen zijn de eerste in hun soort van Microsoft. Het transcriptiemodel kan opnames in 25 verschillende talen naar tekst vertalen. Het is gebouwd voor video-ondertitelingtranscriptie van vergaderingen en stemagenten. Het stemmodel kan audio-opnames maken van maximaal 60 seconden. Het bedrijf zegt dat zijn beeldmodel van de tweede generatie een snellere generatiesnelheid en levensechtere afbeeldingen heeft, waardoor deze nog beter worden zijn vorige model. Ze zijn nu beschikbaar in de Foundry- en MAI-speeltuin van Microsoft, met toekomstige plannen om MAI-Image-2 naar Bing en PowerPoint te brengen. Ontwikkelaars kunnen uitchecken prijsinformatie hier.
Deze nieuwe modellen zijn een duidelijk teken dat Microsoft zijn aanbod op de AI-markt wil uitbreiden. Microsoft’s Copilot is een van de populairste chatbots voor bedrijven, vooral voor degenen die al gebruik maken van Microsoft’s Office 360-suite en de Azure-cloudservice. Naast het inmiddels verouderde originele beeldmodel heeft Microsoft zich vooral gericht op op tekst gebaseerde modellen, in een poging zichzelf te onderscheiden van de vele concurrenten als een veilige, ondernemingsvriendelijke optie. De nieuwste AI-tools, Copiloot Cowork En Copiloot Gezondheidzijn daar het bewijs van.
De modellen herinneren ons er ook aan dat Microsoft, als oud technologiebedrijf, over het geld en de rekenkracht beschikt om dit soort zaken te doen.zijmissies” dat zelfs miljardenstartups als OpenAI zich dit niet altijd kunnen veroorloven. Vorige week bevestigde OpenAI dat dit het geval zal zijn het stopzetten van zijn Sora AI-video-appwaarbij wordt aangevoerd dat het zich opnieuw zal concentreren op de kernactiviteiten. De AI-industrie in 2026 heeft ernaar gestreefd te bewijzen dat haar tools nuttig zijn op de werkplek, vooral met De Claude-code van Anthropic een sprong voorwaarts op de concurrentie.
Generatieve media, zoals de modellen die AI-beeld- en videogeneratie aandrijven, hebben dit nodig veel rekenkracht en energie te laten lopen, die elders besteed zouden kunnen worden. Google heeft, als een ander oud technologiebedrijf waarvan miljarden van zijn budget is toegewezen aan AI-onderzoek, deze week aangegeven dat het de generatieve media niet zal opgeven, maar zal proberen modellen kosten- en energie-efficiënter te maken, net als bij zijn nieuwe Ik zie het 3.1 Lite-videomodel.



