
معيار مفتوح لتقييم وكلاء اختبار APIs. يقيس اكتشاف الأخطاء وتغطية API بشكل موضوعي عبر مهام المصادقة والتقسيم والتدفقات المعقدة.

APIEval-20 هو أول معيار مصمم خصيصًا لتقييم قدرة وكلاء الذكاء الاصطناعي على إنشاء حزم اختبار API تكتشف الأخطاء فعليًا—باستخدام مخطط JSON وحمولة نموذجية فقط، دون الوصول إلى الكود المصدري أو التوثيق. يقيس قدرة اختبار الصندوق الأسود عبر 20 سيناريو متنوعًا تشمل التجارة الإلكترونية والمدفوعات والمصادقة وغيرها.
يخدم APIEval-20 باحثي الذكاء الاصطناعي الذين يبنون وكلاء اختبار، وفرق الهندسة التي تقيّم أدوات الأتمتة، وقادة ضمان الجودة الباحثين عن مقاييس موضوعية لمقارنة أداء الوكلاء بمعايير الاختبار البشري.
Find gaps in your AI agents before users do

Vision-first QA testing across web and mobile

The context layer for production-grade AI agent

Autonomous quality for engineering teams

build your own software factory

The Infrastructure Behind AI Agencies | White-Label Platform

Discover, access, and pay for any API autonomously

Ship AI agents without the operational burden

Recruit agents to run your company as a synchronous team

Control AI agents with confidence

Open-Source Brain For Your Team

Finance agent templates for pitches, KYC, and closing books

LLM Wiki + NotebookLM, in one closed-loop Proactive AI

A reasoning model that interprets intent before it generates

The agent which teaches while you build

Parallel agents, diff reviewer, and multi-model comparisons

Turn your voice and screen into shareable videos instantly.

The work your meetings create, done before they end

Open-Source Brain For Your Team

Virtual Machines for Your Agents

Run 100s of coding agents on any machine from anywhere

open source agent engineering platform

The missing open-source Kubernetes UI

Agent Teams You Can Actually Delegate To

Discover, access, and pay for any API autonomously