Anthropic-ը հայտարարել է խոցելիության որսի ընդլայնված ծրագրի մեկնարկի մասին՝ երրորդ կողմի կիբերանվտանգության փորձագետներին առաջարկելով մինչև $15,000 պարգևատրումներ՝ իր արհեստական ինտելեկտի համակարգերում կարևոր խնդիրները հայտնաբերելու համար:
Նախաձեռնությունը նպատակ ունի գտնել «համընդհանուր խուսափման տեխնիկա», այսինքն՝ հաքերային տեխնիկա, որը կարող է հետևողականորեն շրջանցել AI անվտանգության միջոցառումները բարձր ռիսկային ոլորտներում, ինչպիսիք են քիմիական, կենսաբանական, ճառագայթային և միջուկային սպառնալիքները, ինչպես նաև կիբեր տիրույթում:
Ըստ VentureBeat-ի, Anthropic-ը կհրավիրի հաքերներին՝ փորձարկելու իր համակարգը նախքան դրա հրապարակումը, որպեսզի անմիջապես կանխեն հնարավոր խոցելիությունը, որոնք կարող են հանգեցնել իր AI համակարգերի չարաշահմանը:
Այս մոտեցումը տարբերվում է AI-ի ոլորտում այլ խոշոր խաղացողների ռազմավարություններից: Օրինակ OpenAI-ը և Google-ն ունեն պարգևատրման ծրագրեր, բայց նրանք ավելի շատ կենտրոնանում են ավանդական ծրագրային ապահովման խոցելիության վրա, այլ ոչ թե AI-ի ոլորտային հատուկ շահագործումների վրա:
Բաժանորդագրվեք մեր ալիքին Telegram-ում