Anthropic-ը մինչև $15,000 կվճարի հաքերներին, ովքեր խոցելիություններ կգտնեն իր AI համակարգերում

1 Min Read

Anthropic-ը հայտարարել է խոցելիության որսի ընդլայնված ծրագրի մեկնարկի մասին՝ երրորդ կողմի կիբերանվտանգության փորձագետներին առաջարկելով մինչև $15,000 պարգևատրումներ՝ իր արհեստական ​​ինտելեկտի համակարգերում կարևոր խնդիրները հայտնաբերելու համար:

Նախաձեռնությունը նպատակ ունի գտնել «համընդհանուր խուսափման տեխնիկա», այսինքն՝ հաքերային տեխնիկա, որը կարող է հետևողականորեն շրջանցել AI անվտանգության միջոցառումները բարձր ռիսկային ոլորտներում, ինչպիսիք են քիմիական, կենսաբանական, ճառագայթային և միջուկային սպառնալիքները, ինչպես նաև կիբեր տիրույթում:

Ըստ VentureBeat-ի, Anthropic-ը կհրավիրի հաքերներին՝ փորձարկելու իր համակարգը նախքան դրա հրապարակումը, որպեսզի անմիջապես կանխեն հնարավոր խոցելիությունը, որոնք կարող են հանգեցնել իր AI համակարգերի չարաշահմանը:

Այս մոտեցումը տարբերվում է AI-ի ոլորտում այլ խոշոր խաղացողների ռազմավարություններից: Օրինակ  OpenAI-ը և Google-ն ունեն պարգևատրման ծրագրեր, բայց նրանք ավելի շատ կենտրոնանում են ավանդական ծրագրային ապահովման խոցելիության վրա, այլ ոչ թե AI-ի ոլորտային հատուկ շահագործումների վրա:

Կիսվեք այս հոդվածով