Novinky

AI slop mění ekonomiku bug bounty: open-source projekty zavírají programy odměn za nálezy chyb

AI slop mění ekonomiku bug bounty: open-source projekty zavírají programy odměn za nálezy chyb

Novinky Date: Zobrazení: 7

AI slop mění ekonomiku bug bounty: open-source projekty zavírají programy odměn za nálezy chyb

Generativní modely dramaticky zlevnily produkci věrohodně znějících hlášení o zranitelnostech. Ověřování a oprava ale zůstávají lidsky drahé. Open-source projekty teď přiznávají, že provoz programů odměn už nezvládají, a začínají je tlumit nebo úplně zavírat.

Programy odměn za nalezení chyb fungovaly desetiletí jako nepsaná smlouva mezi bezpečnostními výzkumníky a tvůrci softwaru. Výzkumník investoval čas do analýzy, sepsal kvalitní hlášení s proof-of-concept exploitem, projekt ověřil zranitelnost, vyplatil sjednanou odměnu a zveřejnil patch. Ekonomika fungovala proto, že produkce kvalitního hlášení byla nákladná a počet falešných nálezů přijatelný. Nástup generativních modelů tuto rovnováhu rozbil. Jazykový model dnes na základě obecného popisu kódu dokáže během pár minut vyprodukovat hlášení, které vypadá detailně, používá správnou terminologii, odkazuje na konkrétní funkce a navrhuje konkrétní opravu. Problém je, že podstatná část těchto hlášení popisuje chyby, které ve skutečnosti neexistují, případně jsou tak okrajové, že je projekt nemá zájem řešit.

Pro open-source maintainery se z přílivu AI generovaných reportů, pro které se ujal termín „AI slop", stal palčivý problém. Maintainer musí každý report otevřít, přečíst, prověřit citovaný kód, ověřit, zda popisovaný útok skutečně funguje, a vrátit autorovi odpověď. To u kvalitního, ale falešného hlášení trvá hodiny – stejně dlouho jako u skutečné zranitelnosti. Když podíl falešných hlášení překročí určitou hranici, projektu se ekonomicky vyplatí program pozastavit nebo úplně zrušit. Konkrétní rozhodnutí o pauznutí už oznámila řada projektů, mezi nimi i takové, které byly historicky vzorem otevřeného bug bounty modelu. Maintaineři jako důvod uvádějí, že čas věnovaný prověřování AI slopu už začal ohrožovat běžnou údržbu projektu.

Image

Sekundární dopad cítí i komerční bug bounty platformy a in-house programy korporátních organizací. Některé platformy zavedly tvrdší automatickou filtraci, požadují přihlášení verifikovaným ID, případně zvedly minimální laťku reputačního skóre, pod kterou systém hlášení blokuje. Jiné experimentují s vlastními LLM filtry, které mají hlášení předfiltrovat ještě před tím, než se dostane k lidskému triáři. Žádná z těchto reakcí ale dosud nepřinesla stabilní výsledek – AI slop je inkrementálně lepší a filtry zaostávají.

Otázku „kdo zaplatí oporu" zatím nikdo nemá vyřešenou. Pro provozovatele kritické infrastruktury, který stojí na open-source komponentách, je zpomalení bug bounty zlou zprávou: čím méně reálných hlášení projekt zpracuje, tím větší riziko, že některá zranitelnost zůstane neopravená delší dobu. Pro CSO a CISO to znamená, že úvaha „spoléhám na to, že open-source komunita najde zranitelnosti za nás" už neplatí v té samé míře jako dříve. Praktická odpověď je trojí: investovat do vlastních code-auditů kritických závislostí, podporovat zranitelná místa SBOM evidencí (viz dnes vydaný materiál CISA pro AI systémy), a finančně přispívat těm projektům, na kterých organizace skutečně závisí – přes Open Source Security Foundation, GitHub Sponsors nebo přímé granty.

Diskuse nad „AI slopem" zatím probíhá především v anglosaském prostředí, ale praktická zkušenost je univerzální. České organizace, které provozují systémy s otevřenými komponentami v jádře, by měly téma zařadit do procesu řízení dodavatelského řetězce. Ne proto, aby se vyhnuly open-source – tam je ekonomika stále výhodná –, ale aby měly připravený plán pro situaci, kdy upstream projekt přestane vydávat opravy v dosavadním tempu.

Zdroj

Další články