MLCommons heeft AILuminate geïntroduceerd, een benchmark die de veiligheid van grote taalmodellen (LLM’s) beoordeelt. Deze versie 1.0 biedt veiligheidsbeoordelingen voor de meest gebruikte LLM’s en is het resultaat van een samenwerking tussen AI-onderzoekers en...
MLCommons introduceert AILuminate voor het benchmarken van taalmodellen
Lees meer