Idag är dagen då Kled går in på nytt territorium: 54 nya multimodala datamängder. Sedan vi startade för 4 månader sedan har vi haft nöjet att arbeta direkt med de bästa AI-laboratorierna i Silicon Valley. Vi har fått en inblick i exakt vart AI är på väg och vilka som är de viktigaste konsumentdatauppsättningarna att samla in. Så vi är glada att kunna meddela att vi, utöver våra insatser för att samla in bilder och videor, har identifierat och byggt ut gränssnitt för att samla in 54 nya multimodala datamängder från den $KLED användarbasen. Några exempel är: Voice Clarity Dataset: Träna AI för att förstå tal i bullriga miljöer. Avgörande för säljsamtalsagenter, kundtjänstbots och transkription i realtid. OCR + Receipt Dataset: Miljontals riktiga kvitton och dokument för att hjälpa AI att läsa handskrift, tolka siffror och låsa upp automatisering för redovisning, fintech och utgiftsspårning. AR/VR-interaktionsdatauppsättning: Användare som navigerar AR/VR med gester + röst. Skapa grunden för rumslig databehandling, spel och integrerande AI-copiloter. Dataset för hushållsuppgifter: Korta videoklipp om vardagliga sysslor och verktygsanvändning. Viktigt för robotik, hemassistenter och förkroppsligade AI-modeller. Vi har samlat över 20 000 utbildade VA:er som kommer att börja bidra till dessa datauppsättningar tills vi har förfinat insamlingsgränssnitten helt och hållet och kan skicka dem till Kled-appen, fullt tillgänglig till hands. Sammantaget bör detta avsevärt öka vår pipeline av köpare och stärka alla våra företags- och AI-labbrelationer. Samt ge nya monetära möjligheter till alla våra användare.