Home Nieuws Deze nieuwe AI-modellen zijn gebouwd om overal en in vele talen te...

Deze nieuwe AI-modellen zijn gebouwd om overal en in vele talen te werken

10
0
Deze nieuwe AI-modellen zijn gebouwd om overal en in vele talen te werken

Franse ontwikkelaar Mistral AI brengt een nieuwe reeks taalmodellen uit die zijn ontworpen om hoogwaardige AI-mogelijkheden voor meer mensen te bieden, ongeacht waar ze zijn, hoe betrouwbaar hun internettoegang is of welke taal ze spreken.

Het bedrijf heeft dinsdag een nieuw groot taalmodel aangekondigd, genaamd Mistral Large 3, bedoeld voor breed, algemeen gebruik. Denken ChatGPT of Tweeling. De andere modellen zijn verkrijgbaar in verschillende maten en mogelijkheden en zijn gebouwd voor gebruik op apparaten zich. Deze kleinere modellen kunnen op laptops, smartphones, in auto’s of op robots draaien en kunnen worden afgestemd om specifieke taken uit te voeren.

AI Atlas

Alle modellen zijn open bron en open gewicht, wat betekent dat ontwikkelaars die ze gebruiken, kunnen zien hoe ze werken en ze kunnen aanpassen aan hun behoeften. “We zijn er diep van overtuigd dat dit AI voor iedereen toegankelijk zal maken, in feite de AI in hun hand zal leggen”, zei Guillaume Lample, medeoprichter en hoofdwetenschapper bij Mistral AI, in een interview.

Mistral AI, opgericht door voormalige Google DeepMind- en Meta-onderzoekers, is in de VS niet zo’n grote naam als rivalen als OpenAI en Anthropic, maar is beter bekend in Europa. Naast modellen die beschikbaar zijn voor onderzoekers en bedrijven, biedt het ook een chatbot genaamd Le Chat, die beschikbaar is via browser of in appstores.

AI-modellen die zijn ontworpen om meertalig te zijn

Lample zei dat het bedrijf met zijn nieuwe reeks modellen een doel heeft om hoogwaardige, grensverleggende AI-mogelijkheden te bieden die open source en toegankelijk zijn. Een deel daarvan heeft met taal te maken. De meeste populaire AI-modellen in de VS zijn voornamelijk gebouwd voor gebruik in het Engels, net als benchmarkingtools die de mogelijkheden van modellen vergelijken. En hoewel deze modellen in andere talen kunnen werken en kunnen worden vertaald, zijn ze misschien niet zo goed als de benchmarks suggereren als ze in niet-Engelse talen worden gebruikt, zei Lample.

Bekijk dit: Kan AI een gokverslaving ontwikkelen? De AI-aangedreven browseroorlogen en de toekomst van werk met Jason Hiner van ZDNET | Technologie vandaag

Mistral AI wilde dat zijn nieuwe modellen beter zouden werken voor sprekers van alle talen, dus verhoogde het de hoeveelheid niet-Engelse trainingsgegevens in verhouding tot Engelse gegevens. “Ik denk dat mensen meestal niet te veel nadruk leggen op de meertalige mogelijkheden, want als ze dat wel doen, zullen ze ook de prestaties op de populaire benchmarks die iedereen ziet een beetje verslechteren,” zei Lample. “Dus als je je model echt wilt laten schitteren in de populaire benchmarks, moet je de meertalige (prestaties) opofferen. En omgekeerd, als je wilt dat het model echt goed is in meertalig, dan moet je in feite de populaire benchmarks opgeven.”

Verschillende maten voor verschillende toepassingen

Naast het Mistral Large 3-model voor algemene doeleinden, met zijn totale 675 miljard parameters, zijn er drie kleinere modellen genaamd Ministral 3 – 3 miljard, 8 miljard en 14 miljard parameters – die elk in drie varianten voorkomen, voor een totaal van negen. (Een parameter is het gewicht of de functie die een model vertelt hoe het met zijn invoergegevens moet omgaan. De grotere modellen zijn beter en capabeler, maar ze hebben ook meer rekenkracht nodig en werken langzamer.)

De drie varianten van de kleinere modellen zijn op deze manier onderverdeeld: één basismodel dat door de gebruiker kan worden aangepast en aangepast, één dat door Mistral is verfijnd om goed te presteren, en één dat is gebouwd om te redeneren en dat meer tijd besteedt aan het herhalen en verwerken van een vraag om een ​​beter antwoord.

Lees meer: AI Essentials: 29 manieren waarop u Gen AI voor u kunt laten werken, volgens onze experts

De kleinere modellen zijn vooral belangrijk omdat veel AI-gebruikers iets willen dat een of twee taken goed en efficiënt uitvoert, versus grote en dure algemene modellen, aldus Lample. Ontwikkelaars kunnen deze modellen aanpassen aan die specifieke taken, en een persoon of een bedrijf kan ze op hun eigen servers hosten, waardoor ze de kosten besparen om ze ergens in een datacenter te laten draaien.

Kleinere modellen kunnen ook op specifieke apparaten werken. Een kleintje kan op je smartphone draaien, een iets grotere op je laptop. Dat heeft voordelen op het gebied van privacy en veiligheid (uw gegevens verlaten uw apparaat nooit) en levert ook kosten- en energiebesparingen op.

Een klein model dat op het apparaat zelf draait, heeft ook geen internettoegang nodig om te werken, wat van vitaal belang is als je bedenkt dat AI wordt gebruikt in zaken als robots en auto’s, waarbij je niet hoeft te rekenen op betrouwbare wifi om dingen goed te laten werken.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in