Agregace dat

Strojové učení potřebuje pro dosažení kvalitních výsledků data, velké množství dat. Proto vyvíjíme vlastní univerzální crawlery, prostřednictvím kterých potřebný obsah získáváme.

Máme prakticky vyřešené záležitosti typu omezování počtu přístupů prostřednictvím captcha kódů, měnící se struktury webů, či praktické problémy typu identifikace správných informací v textu. Například při stahování recenzí je často stejné zboží na jednotlivých eshopech označováno odlišně a pro agregaci dat je třeba identifikovat, že se jedná o tentýž výrobek.