អ្នកជំនាញសន្តិសុខតាមអ៊ីនធឺណិតវិភាគការគំរាមកំហែងដោយប្រើឧបករណ៍ AI ដែលអាចបង្កើតបាន។.

តើ​បច្ចេកវិទ្យា​ AI ដែល​បង្កើត​ឡើង​ដោយ​ខ្លួនឯង (AI) អាច​ត្រូវ​បាន​ប្រើប្រាស់​ក្នុង​សន្តិសុខ​តាម​អ៊ីនធឺណិត​យ៉ាង​ដូចម្តេច?

សេចក្តីផ្តើម

Generative AI - ប្រព័ន្ធបញ្ញាសិប្បនិមិត្តដែលមានសមត្ថភាពបង្កើតមាតិកាថ្មី ឬការព្យាករណ៍ - កំពុងលេចចេញជាកម្លាំងផ្លាស់ប្តូរនៅក្នុងសន្តិសុខអ៊ីនធឺណិត។ ឧបករណ៍ដូចជា GPT-4 របស់ OpenAI បានបង្ហាញពីសមត្ថភាពក្នុងការវិភាគទិន្នន័យស្មុគ្រស្មាញ និងបង្កើតអត្ថបទដូចមនុស្ស ដោយអនុញ្ញាតឱ្យមានវិធីសាស្រ្តថ្មីក្នុងការការពារប្រឆាំងនឹងការគំរាមកំហែងតាមអ៊ីនធឺណិត។ អ្នកជំនាញផ្នែកសន្តិសុខតាមអ៊ីនធឺណិត និងអ្នកធ្វើការសម្រេចចិត្តអាជីវកម្មនៅទូទាំងឧស្សាហកម្មកំពុងស្វែងរកពីរបៀបដែល AI ជំនាន់ថ្មីអាចពង្រឹងការការពារប្រឆាំងនឹងការវាយប្រហារដែលកំពុងវិវត្ត។ ចាប់ពីផ្នែកហិរញ្ញវត្ថុ និងការថែទាំសុខភាព រហូតដល់ការលក់រាយ និងរដ្ឋាភិបាល អង្គការនានានៅគ្រប់វិស័យប្រឈមមុខនឹងការប៉ុនប៉ងបន្លំស្មុគ្រស្មាញ មេរោគ និងការគំរាមកំហែងផ្សេងទៀតដែល AI បង្កើតអាចជួយប្រឆាំង។ នៅក្នុងក្រដាសសនេះ យើងពិនិត្យមើល ពីរបៀបដែល AI ជំនាន់ថ្មីអាចត្រូវបានប្រើនៅក្នុងសុវត្ថិភាពតាមអ៊ីនធឺណិត ដោយរំលេចកម្មវិធីក្នុងពិភពពិត លទ្ធភាពនាពេលអនាគត និងការពិចារណាសំខាន់ៗសម្រាប់ការអនុម័ត។

Generative AI ខុសពី AI បែបវិភាគបែបបុរាណ ដោយមិនត្រឹមតែរកឃើញគំរូប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំង បង្កើត ខ្លឹមសារផងដែរ ថាតើការក្លែងធ្វើការវាយប្រហារ ដើម្បីបណ្តុះបណ្តាលការការពារ ឬផលិតការពន្យល់ជាភាសាធម្មជាតិសម្រាប់ទិន្នន័យសុវត្ថិភាពស្មុគស្មាញ។ សមត្ថភាពពីរនេះធ្វើឱ្យវាក្លាយជាដាវមុខពីរ៖ វាផ្តល់នូវឧបករណ៍ការពារថ្មីដ៏មានអានុភាព ប៉ុន្តែតួអង្គគំរាមកំហែងក៏អាចទាញយកវាបានផងដែរ។ ផ្នែកខាងក្រោមស្វែងរកករណីប្រើប្រាស់យ៉ាងទូលំទូលាយសម្រាប់ AI ទូទៅក្នុងសុវត្ថិភាពតាមអ៊ីនធឺណិត ចាប់ពីការរកឃើញការបន្លំដោយស្វ័យប្រវត្តិ រហូតដល់ការបង្កើនការឆ្លើយតបឧប្បត្តិហេតុ។ យើងក៏ពិភាក្សាអំពីអត្ថប្រយោជន៍ដែលការសន្យានៃការបង្កើតថ្មីរបស់ AI ទាំងនេះ រួមជាមួយនឹងហានិភ័យ (ដូចជា AI “ការយល់ច្រលំ” ឬការប្រើប្រាស់ខុសឆ្គង) ដែលអង្គការត្រូវតែគ្រប់គ្រង។ ជាចុងក្រោយ យើងផ្តល់នូវការអនុវត្តជាក់ស្តែង ដើម្បីជួយអាជីវកម្មវាយតម្លៃ និងប្រកបដោយការទទួលខុសត្រូវក្នុងការរួមបញ្ចូល AI ជំនាន់ថ្មីទៅក្នុងយុទ្ធសាស្ត្រសុវត្ថិភាពអ៊ីនធឺណិតរបស់ពួកគេ។

Generative AI នៅក្នុង Cybersecurity: ទិដ្ឋភាពទូទៅ

Generative AI នៅក្នុងសុវត្ថិភាពតាមអ៊ីនធឺណិត សំដៅលើម៉ូដែល AI ដែលជារឿយៗជាគំរូភាសាធំៗ ឬបណ្តាញសរសៃប្រសាទផ្សេងទៀត ដែលអាចបង្កើតការយល់ដឹង ការណែនាំ កូដ ឬសូម្បីតែទិន្នន័យសំយោគដើម្បីជួយក្នុងកិច្ចការសុវត្ថិភាព។ មិនដូចគំរូទស្សន៍ទាយសុទ្ធសាធទេ AI បង្កើតអាចក្លែងធ្វើសេណារីយ៉ូ និងបង្កើតលទ្ធផលដែលអាចអានបានរបស់មនុស្ស (ឧទាហរណ៍ របាយការណ៍ ការជូនដំណឹង ឬសូម្បីតែគំរូកូដព្យាបាទ) ដោយផ្អែកលើទិន្នន័យបណ្តុះបណ្តាលរបស់វា។ សមត្ថភាព​នេះ​កំពុង​ត្រូវ​បាន​ប្រើ​ប្រាស់​ដើម្បី ​ទស្សន៍ទាយ រក​ឃើញ និង​ឆ្លើយ​តប ​នឹង​ការ​គំរាម​កំហែង​ក្នុង​វិធី​ដែល​មាន​ភាព​ស្វាហាប់​ជាង​មុន ( តើ​អ្វី​ទៅ​ជា Generative AI in Cybersecurity? - Palo Alto Networks )។ ជាឧទាហរណ៍ គំរូទូទៅអាចវិភាគកំណត់ហេតុដ៏ធំ ឬឃ្លាំងសម្ងាត់គំរាមកំហែង និងបង្កើតការសង្ខេបសង្ខេប ឬសកម្មភាពដែលបានណែនាំ ដែលដំណើរការស្ទើរតែដូចជា AI “ជំនួយការ” ដល់ក្រុមសន្តិសុខ។

ការអនុវត្តដំបូងនៃ AI សម្រាប់ការការពារតាមអ៊ីនធឺណិតបានបង្ហាញពីការសន្យា។ នៅឆ្នាំ 2023 ក្រុមហ៊ុន Microsoft បានណែនាំ Security Copilot ដែលជាជំនួយការដែលដំណើរការដោយ GPT-4 សម្រាប់អ្នកវិភាគផ្នែកសុវត្ថិភាព ដើម្បីជួយកំណត់អត្តសញ្ញាណការរំលោភបំពាន និងរុះរើតាមរលកសញ្ញា 65 លានលានដែល Microsoft ដំណើរការជារៀងរាល់ថ្ងៃ ( Microsoft Security Copilot គឺជាជំនួយការ AI GPT-4 ថ្មីសម្រាប់សន្តិសុខអ៊ីនធឺណិត | The Verge ) ។ អ្នកវិភាគអាចជំរុញប្រព័ន្ធនេះជាភាសាធម្មជាតិ (ឧទាហរណ៍ "សង្ខេបឧប្បត្តិហេតុសុវត្ថិភាពទាំងអស់ក្នុងរយៈពេល 24 ម៉ោងចុងក្រោយ" ) ហើយអ្នកបើកយន្តហោះនឹងបង្កើតការសង្ខេបនិទានរឿងដែលមានប្រយោជន៍។ AI របស់ Google ប្រើគំរូទូទៅមួយហៅថា Gemini ដើម្បីបើកការស្វែងរកការសន្ទនាតាមរយៈមូលដ្ឋានទិន្នន័យ Intel គំរាមកំហែងដ៏ធំរបស់ Google វិភាគកូដគួរឱ្យសង្ស័យយ៉ាងឆាប់រហ័ស និងសង្ខេបការរកឃើញដើម្បីជួយអ្នកប្រមាញ់មេរោគ ( តើ AI Generative អាចត្រូវបានប្រើប្រាស់ក្នុង Cybersecurity យ៉ាងដូចម្តេច? 10 Real-World Examples ) ។ ឧទាហរណ៍ទាំងនេះបង្ហាញពីសក្ដានុពល៖ AI បង្កើតអាចរំលាយទិន្នន័យសុវត្ថិភាពតាមអ៊ីនធឺណិតដែលមានលក្ខណៈស្មុគស្មាញ ទ្រង់ទ្រាយធំ និងបង្ហាញការយល់ដឹងជាទម្រង់ដែលអាចចូលដំណើរការបាន បង្កើនល្បឿនការសម្រេចចិត្ត។

ទន្ទឹមនឹងនេះ AI ជំនាន់ថ្មីអាចបង្កើតខ្លឹមសារក្លែងក្លាយដែលមានភាពប្រាកដនិយមខ្ពស់ ដែលជាអត្ថប្រយោជន៍សម្រាប់ការក្លែងធ្វើ និងការបណ្តុះបណ្តាល (ហើយជាអកុសលសម្រាប់អ្នកវាយប្រហារដែលបង្កើតវិស្វកម្មសង្គម)។ នៅពេលយើងបន្តទៅករណីប្រើប្រាស់ជាក់លាក់ យើងនឹងឃើញថាសមត្ថភាពរបស់ AI បង្កើតទាំង ការសំយោគ និង វិភាគ ព័ត៌មាន គាំទ្រកម្មវិធីសុវត្ថិភាពអ៊ីនធឺណិតជាច្រើនរបស់វា។ ខាងក្រោមនេះ យើងស្វែងយល់ពីករណីប្រើប្រាស់សំខាន់ៗ ដោយរាប់បញ្ចូលអ្វីៗគ្រប់យ៉ាងចាប់ពីការការពារការបន្លំ ដល់ការអភិវឌ្ឍន៍កម្មវិធីដោយសុវត្ថិភាព ជាមួយនឹងឧទាហរណ៍អំពីរបៀបដែលនីមួយៗត្រូវបានអនុវត្តនៅទូទាំងឧស្សាហកម្ម។

កម្មវិធីសំខាន់ៗនៃ AI ជំនាន់ថ្មីនៅក្នុង Cybersecurity

រូបភាព៖ ករណីប្រើប្រាស់សំខាន់ៗសម្រាប់ AI ទូទៅក្នុងសុវត្ថិភាពតាមអ៊ីនធឺណិតរួមមាន AI copilots សម្រាប់ក្រុមសុវត្ថិភាព ការវិភាគភាពងាយរងគ្រោះនៃកូដ ការរកឃើញការគំរាមកំហែងដែលអាចប្រែប្រួលបាន ការក្លែងធ្វើការវាយប្រហារសូន្យថ្ងៃ សុវត្ថិភាពជីវមាត្រដែលប្រសើរឡើង និងការរកឃើញការបន្លំ ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] ) ។

ការរកឃើញ និងការបង្ការការបន្លំ

Phishing នៅតែជាការគំរាមកំហែងតាមអ៊ីនធឺណិតដ៏រីករាលដាលបំផុតមួយ ដោយបញ្ឆោតអ្នកប្រើប្រាស់ឱ្យចុចលើតំណភ្ជាប់ដែលមានគំនិតអាក្រក់ ឬបំបែកព័ត៌មានសម្ងាត់។ Generative AI កំពុង​ត្រូវ​បាន​គេ​ដាក់​ពង្រាយ​ដើម្បី ​រក​ឃើញ​ការ​ប៉ុនប៉ង​បន្លំ និង​ជំរុញ​ការ​បណ្តុះ​បណ្តាល​អ្នក​ប្រើ​ដើម្បី​ការពារ​ការ​វាយ​ប្រហារ​ដោយ​ជោគជ័យ។ នៅផ្នែកការពារ ម៉ូដែល AI អាចវិភាគខ្លឹមសារអ៊ីមែល និងអាកប្បកិរិយារបស់អ្នកផ្ញើ ដើម្បីរកមើលសញ្ញាណនៃការបន្លំដែលតម្រងផ្អែកលើច្បាប់អាចនឹងខកខាន។ តាមរយៈការរៀនពីសំណុំទិន្នន័យធំនៃស្របច្បាប់ធៀបនឹងអ៊ីមែលក្លែងបន្លំ គំរូទូទៅអាចបង្ហាញភាពមិនប្រក្រតីជាសម្លេង ពាក្យ ឬបរិបទដែលបង្ហាញពីការបោកប្រាស់ - ទោះបីជាវេយ្យាករណ៍ និងអក្ខរាវិរុទ្ធលែងផ្តល់ឱ្យវាឆ្ងាយក៏ដោយ។ តាមពិតទៅ អ្នកស្រាវជ្រាវ Palo Alto Networks កត់សម្គាល់ថា AI ជំនាន់ថ្មីអាចកំណត់អត្តសញ្ញាណ "សញ្ញាតូចៗនៃអ៊ីមែលបន្លំ ដែលប្រហែលជាមិនអាចរកឃើញបាន" ដែលជួយឱ្យអង្គការរក្សាបានមួយជំហានមុនអ្នកបោកប្រាស់ ( តើអ្វីទៅជា Generative AI in Cybersecurity ? - Palo Alto Networks ) ។

ក្រុមសន្តិសុខក៏កំពុងប្រើប្រាស់ AI ជំនាន់ថ្មី ដើម្បី ក្លែងធ្វើការវាយប្រហារដោយបន្លំ សម្រាប់ការបណ្តុះបណ្តាល និងការវិភាគផងដែរ។ ជាឧទាហរណ៍ Ironscales បានណែនាំឧបករណ៍ក្លែងបន្លំដែលដំណើរការដោយ GPT ដែលបង្កើតដោយស្វ័យប្រវត្តិនូវអ៊ីមែលបន្លំក្លែងក្លាយដែលតម្រូវតាមបុគ្គលិករបស់អង្គការ (តើ AI ជំនាន់ថ្មីអាចប្រើក្នុងសុវត្ថិភាពតាមអ៊ីនធឺណិតបានយ៉ាងដូចម្តេច? 10 Real-World Examples ) ។ អ៊ីមែលដែលបង្កើតដោយ AI ទាំងនេះឆ្លុះបញ្ចាំងពីយុទ្ធសាស្ត្រអ្នកវាយប្រហារចុងក្រោយបំផុត ដោយផ្តល់ឱ្យបុគ្គលិកនូវការអនុវត្តជាក់ស្តែងក្នុងការស្វែងរកមាតិកាដែលឆបោក។ ការហ្វឹកហ្វឺនផ្ទាល់ខ្លួនបែបនេះមានសារៈសំខាន់ណាស់ នៅពេលដែលអ្នកវាយប្រហារខ្លួនឯងទទួលយក AI ដើម្បីបង្កើតការទាក់ទាញដ៏គួរឱ្យជឿជាក់បន្ថែមទៀត។ គួរកត់សម្គាល់ថា ខណៈពេលដែល AI ជំនាន់ថ្មីអាចបង្កើតសារបន្លំយ៉ាងប្រណិត (បានកន្លងផុតទៅគឺជាថ្ងៃដែលងាយរកឃើញភាសាអង់គ្លេសដែលខូច) អ្នកការពារបានរកឃើញថា AI មិនអាចយកឈ្នះបាន។ នៅឆ្នាំ 2024 អ្នកស្រាវជ្រាវ IBM Security បានដំណើរការការពិសោធន៍មួយដោយប្រៀបធៀបអ៊ីមែលបន្លំដែលសរសេរដោយមនុស្សទៅនឹងអ៊ីមែលដែលបង្កើតដោយ AI ហើយ "គួរឱ្យភ្ញាក់ផ្អើល អ៊ីមែលដែលបង្កើតដោយ AI នៅតែងាយស្រួលក្នុងការរកឃើញទោះបីជាវេយ្យាករណ៍ត្រឹមត្រូវក៏ដោយ" ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] ) ។ នេះបង្ហាញថាវិចារណញាណរបស់មនុស្សរួមជាមួយនឹងការរកឃើញដែលជំនួយដោយ AI នៅតែអាចទទួលស្គាល់ភាពមិនស៊ីសង្វាក់គ្នាបន្តិចបន្តួច ឬសញ្ញាទិន្នន័យមេតានៅក្នុងការបោកប្រាស់ដែលសរសេរដោយ AI ។

Generative AI ជួយការពារការបន្លំតាមវិធីផ្សេងទៀតផងដែរ។ ម៉ូដែលអាចត្រូវបានប្រើដើម្បីបង្កើត ការឆ្លើយតបដោយស្វ័យប្រវត្តិ ឬតម្រង ដែលសាកល្បងអ៊ីមែលគួរឱ្យសង្ស័យ។ ជាឧទាហរណ៍ ប្រព័ន្ធ AI អាចឆ្លើយតបទៅអ៊ីមែលជាមួយនឹងសំណួរជាក់លាក់ ដើម្បីផ្ទៀងផ្ទាត់ភាពស្របច្បាប់របស់អ្នកផ្ញើ ឬប្រើ LLM ដើម្បីវិភាគតំណភ្ជាប់ និងឯកសារភ្ជាប់របស់អ៊ីមែលនៅក្នុងប្រអប់ខ្សាច់ បន្ទាប់មកសង្ខេបពីចេតនាអាក្រក់ណាមួយ។ វេទិកាសុវត្ថិភាពរបស់ NVIDIA Morpheus បង្ហាញពីថាមពលនៃ AI នៅក្នុងវេទិកានេះ វាប្រើគំរូ NLP ទូទៅដើម្បីវិភាគ និងចាត់ថ្នាក់អ៊ីមែលយ៉ាងឆាប់រហ័ស ហើយវាត្រូវបានគេរកឃើញថាអាចកែលម្អការរកឃើញអ៊ីមែលដែលបន្លំដោយលំពែង 21% បើប្រៀបធៀបទៅនឹងឧបករណ៍សុវត្ថិភាពបែបប្រពៃណី ( 6 ប្រើករណីសម្រាប់ AI ជំនាន់ថ្មីនៅក្នុង Cybersecurity [+ ឧទាហរណ៍] ) ។ Morpheus ថែមទាំងបង្ហាញទម្រង់ការទំនាក់ទំនងរបស់អ្នកប្រើដើម្បីរកមើលអាកប្បកិរិយាមិនធម្មតា (ដូចជាអ្នកប្រើភ្លាមៗផ្ញើអ៊ីមែលទៅអាសយដ្ឋានខាងក្រៅជាច្រើន) ដែលអាចបង្ហាញពីគណនីដែលត្រូវបានសម្របសម្រួលផ្ញើអ៊ីមែលបន្លំ។

នៅក្នុងការអនុវត្ត ក្រុមហ៊ុននានានៅទូទាំងឧស្សាហកម្មកំពុងចាប់ផ្តើមជឿទុកចិត្តលើ AI ដើម្បីត្រងអ៊ីមែល និងចរាចរណ៍គេហទំព័រសម្រាប់ការវាយប្រហារផ្នែកវិស្វកម្មសង្គម។ ជាឧទាហរណ៍ ក្រុមហ៊ុនហិរញ្ញវត្ថុប្រើប្រាស់ AI ទូទៅដើម្បីស្កេនទំនាក់ទំនងសម្រាប់ការប៉ុនប៉ងក្លែងបន្លំដែលអាចនាំឱ្យមានការក្លែងបន្លំតាមខ្សែ ខណៈពេលដែលអ្នកផ្តល់សេវាថែទាំសុខភាពប្រើប្រាស់ AI ដើម្បីការពារទិន្នន័យអ្នកជំងឺពីការរំលោភដែលទាក់ទងនឹងការបន្លំ។ តាមរយៈការបង្កើតសេណារីយ៉ូការបន្លំពិតប្រាកដ និងកំណត់អត្តសញ្ញាណសារសំខាន់នៃសារព្យាបាទ AI បង្កើតបានបន្ថែមស្រទាប់ដ៏មានឥទ្ធិពលមួយដល់យុទ្ធសាស្ត្រការពារការបន្លំ។ មធ្យោបាយដកខ្លួនចេញ៖ AI អាចជួយរកឃើញ និងដកអាវុធនៃការវាយប្រហារដោយបន្លំ កាន់តែលឿន និងត្រឹមត្រូវជាងនេះ បើទោះបីជាអ្នកវាយប្រហារប្រើបច្ចេកវិទ្យាដូចគ្នានេះដើម្បីដំឡើងហ្គេមរបស់ពួកគេក៏ដោយ។

ការរកឃើញមេរោគ និងការវិភាគការគំរាមកំហែង

មេរោគទំនើបកំពុងវិវឌ្ឍឥតឈប់ឈរ – អ្នកវាយប្រហារបង្កើតវ៉ារ្យ៉ង់ថ្មី ឬកូដលាក់បាំងដើម្បីរំលងហត្ថលេខាកំចាត់មេរោគ។ Generative AI ផ្តល់នូវបច្ចេកទេសប្រលោមលោកសម្រាប់ទាំងការរកឃើញមេរោគ និងការយល់ដឹងពីអាកប្បកិរិយារបស់វា។ វិធីសាស្រ្តមួយកំពុងប្រើប្រាស់ AI ដើម្បី បង្កើត "មេរោគភ្លោះអាក្រក់" នៃមេរោគ ៖ អ្នកស្រាវជ្រាវសុវត្ថិភាពអាចផ្តល់គំរូមេរោគដែលគេស្គាល់ទៅជាគំរូបង្កើត ដើម្បីបង្កើតវ៉ារ្យ៉ង់ជាច្រើននៃមេរោគនោះ។ តាមរយៈការធ្វើដូច្នេះ ពួកគេរំពឹងយ៉ាងមានប្រសិទ្ធភាពចំពោះការកែប្រែដែលអ្នកវាយប្រហារអាចបង្កើតបាន។ វ៉ារ្យ៉ង់ដែលបង្កើតដោយ AI ទាំងនេះបន្ទាប់មកអាចត្រូវបានប្រើដើម្បីបណ្តុះបណ្តាលប្រព័ន្ធកំចាត់មេរោគ និងការឈ្លានពាន ដូច្នេះសូម្បីតែកំណែដែលបានកែប្រែនៃមេរោគត្រូវបានទទួលស្គាល់នៅក្នុងធម្មជាតិ ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] )។ យុទ្ធសាស្ត្រសកម្មនេះជួយបំបែកវដ្តដែលពួក Hacker កែប្រែមេរោគរបស់ពួកគេបន្តិច ដើម្បីគេចពីការរកឃើញ ហើយអ្នកការពារត្រូវតែព្យាយាមសរសេរហត្ថលេខាថ្មីរាល់ពេល។ ដូចដែលបានកត់សម្គាល់នៅក្នុងផតឃែស្ថឧស្សាហកម្មមួយ អ្នកជំនាញផ្នែកសន្តិសុខឥឡូវនេះប្រើ AI ជំនាន់ដើម្បី "ក្លែងធ្វើចរាចរបណ្តាញ និងបង្កើតបន្ទុកព្យាបាទដែលធ្វើត្រាប់តាមការវាយប្រហារដ៏ស្មុគ្រស្មាញ" ដោយស្ត្រេសសាកល្បងការការពាររបស់ពួកគេប្រឆាំងនឹងក្រុមគ្រួសារនៃការគំរាមកំហែងទាំងមូលជាជាងឧទាហរណ៍តែមួយ។ ការរកឃើញការគំរាមកំហែងដែលអាចប្រែប្រួល នេះ មានន័យថាឧបករណ៍សុវត្ថិភាពកាន់តែមានភាពធន់នឹងមេរោគ polymorphic ដែលនឹងអាចរំលងបាន។

លើសពីការរកឃើញ AI បង្កើតជំនួយក្នុង ការវិភាគមេរោគ និងវិស្វកម្មបញ្ច្រាស ដែលតាមទម្លាប់គឺជាការងារដែលពឹងផ្អែកលើកម្លាំងពលកម្មសម្រាប់អ្នកវិភាគការគំរាមកំហែង។ គំរូភាសាធំអាចត្រូវបានផ្តល់ភារកិច្ចក្នុងការពិនិត្យមើលកូដ ឬស្គ្រីបគួរឱ្យសង្ស័យ និងពន្យល់ជាភាសាសាមញ្ញអំពីអ្វីដែលកូដមានបំណងធ្វើ។ ឧទាហរណ៍នៃពិភពពិតគឺ VirusTotal Code Insight ដែលជាមុខងារមួយដោយ VirusTotal របស់ Google ដែលប្រើគំរូ AI ជំនាន់មួយ (Google's Sec-PaLM) ដើម្បីបង្កើតការសង្ខេបជាភាសាធម្មជាតិនៃកូដដែលមានសក្តានុពល ( តើ AI ជំនាន់មុនអាចប្រើក្នុងសុវត្ថិភាពតាមអ៊ីនធឺណិតបានដោយរបៀបណា? 10 Real-World Examples ) ។ វាជា "ប្រភេទនៃ ChatGPT ដែលឧទ្ទិសដល់ការសរសេរកូដសុវត្ថិភាព" ដែលដើរតួជាអ្នកវិភាគមេរោគ AI ដែលធ្វើការ 24/7 ដើម្បីជួយអ្នកវិភាគរបស់មនុស្សឱ្យយល់ពីការគំរាមកំហែង ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] )។ ជំនួសឱ្យការសរសេរលើស្គ្រីបដែលមិនធ្លាប់ស្គាល់ ឬកូដគោលពីរ សមាជិកក្រុមសន្តិសុខអាចទទួលបានការពន្យល់ភ្លាមៗពី AI ឧទាហរណ៍ "ស្គ្រីបនេះព្យាយាមទាញយកឯកសារពីម៉ាស៊ីនមេ XYZ ហើយបន្ទាប់មកកែប្រែការកំណត់ប្រព័ន្ធ ដែលជាការចង្អុលបង្ហាញអំពីអាកប្បកិរិយារបស់មេរោគ។" នេះបង្កើនល្បឿនការឆ្លើយតបឧបទ្ទវហេតុយ៉ាងខ្លាំង ព្រោះថាអ្នកវិភាគអាចសាកល្បង និងស្វែងយល់ពីមេរោគថ្មីបានលឿនជាងពេលណាទាំងអស់។

Generative AI ក៏ត្រូវបានប្រើដើម្បី បញ្ជាក់មេរោគនៅក្នុងសំណុំទិន្នន័យដ៏ធំ ។ ម៉ាស៊ីនកំចាត់មេរោគបែបបុរាណស្កេនឯកសារសម្រាប់ហត្ថលេខាដែលគេស្គាល់ ប៉ុន្តែគំរូទូទៅអាចវាយតម្លៃលក្ខណៈរបស់ឯកសារ ហើយថែមទាំងអាចទស្សន៍ទាយថាតើវាព្យាបាទដោយផ្អែកលើគំរូដែលបានសិក្សា។ តាមរយៈការវិភាគគុណលក្ខណៈនៃឯកសាររាប់ពាន់លាន (ព្យាបាទ និងស្លូតបូត) AI អាចចាប់បាននូវចេតនាព្យាបាទ ដែលមិនមានហត្ថលេខាច្បាស់លាស់។ ជាឧទាហរណ៍ គំរូទូទៅអាចដាក់ទង់ថាអាចប្រតិបត្តិបានថាគួរឱ្យសង្ស័យ ដោយសារទម្រង់អាកប្បកិរិយារបស់វា "មើលទៅ" ដូចជាការប្រែប្រួលបន្តិចបន្តួចនៃ ransomware ដែលវាបានឃើញអំឡុងពេលហ្វឹកហាត់ ទោះបីជាប្រព័ន្ធគោលពីរថ្មីក៏ដោយ។ ការរកឃើញដោយផ្អែកលើអាកប្បកិរិយានេះជួយប្រឆាំងមេរោគប្រលោមលោក ឬសូន្យថ្ងៃ។ Threat Intelligence AI របស់ Google (ផ្នែកនៃ Chronicle/Mandiant) តាមសេចក្តីរាយការណ៍បានប្រើប្រាស់គំរូបង្កើតរបស់ខ្លួនដើម្បីវិភាគកូដព្យាបាទដែលមានសក្តានុពល និង "កាន់តែមានប្រសិទ្ធភាព និងមានប្រសិទ្ធភាពជួយអ្នកជំនាញផ្នែកសន្តិសុខក្នុងការប្រយុទ្ធប្រឆាំងនឹងមេរោគ និងប្រភេទនៃការគំរាមកំហែងផ្សេងទៀត"។ ( តើ AI Generative អាច​ត្រូវ​បាន​គេ​ប្រើ​ក្នុង​សុវត្ថិភាព​តាម​អ៊ីនធឺណិត​ដោយ​របៀប​ណា? 10 គំរូ​ពិភពលោក​ពិត​ប្រាកដ )។

នៅផ្នែកខាងត្រឡប់ យើងត្រូវតែទទួលស្គាល់ថាអ្នកវាយប្រហារអាចប្រើ AI ជំនាន់នៅទីនេះផងដែរ - ដើម្បីបង្កើតមេរោគដែលសម្របខ្លួនដោយស្វ័យប្រវត្តិ។ តាមពិតទៅ អ្នកជំនាញផ្នែកសន្តិសុខព្រមានថា AI ជំនាន់មុន អាចជួយឧក្រិដ្ឋជនតាមអ៊ីនធឺណិតបង្កើតមេរោគ ដែលពិបាករកឃើញ ( តើអ្វីទៅជា Generative AI in Cybersecurity? - Palo Alto Networks )។ គំរូ AI អាច​ត្រូវ​បាន​ណែនាំ​ឱ្យ​វាយលុក​មេរោគ​ម្តង​ហើយ​ម្តង​ទៀត (ផ្លាស់ប្តូរ​រចនាសម្ព័ន្ធ​ឯកសារ វិធីសាស្ត្រ​អ៊ិនគ្រីប។ ការ​ប្រើ​ប្រាស់​ជា​សត្រូវ​នេះ​គឺ​ជា​ការ​ព្រួយ​បារម្ភ​កាន់​តែ​ខ្លាំង​ឡើង (ជួនកាល​គេ​ហៅ​ថា "មេរោគ​ដែល​ប្រើ​ដោយ AI" ឬ​មេរោគ polymorphic ជា​សេវា)។ យើងនឹងពិភាក្សាអំពីហានិភ័យបែបនេះនៅពេលក្រោយ ប៉ុន្តែវាគូសបញ្ជាក់ថា AI ជំនាន់ថ្មីគឺជាឧបករណ៍មួយនៅក្នុងហ្គេមឆ្មា និងកណ្ដុរដែលប្រើដោយទាំងអ្នកការពារ និងអ្នកវាយប្រហារ។

សរុបមក AI ជំនាន់ថ្មីជួយពង្រឹងការការពារមេរោគ ដោយអនុញ្ញាតឱ្យក្រុមសន្តិសុខ គិតដូចអ្នកវាយប្រហារ បង្កើតការគំរាមកំហែង និងដំណោះស្រាយថ្មីៗនៅក្នុងផ្ទះ។ ថាតើវាកំពុងផលិតមេរោគសំយោគដើម្បីបង្កើនអត្រាការរកឃើញ ឬប្រើ AI ដើម្បីពន្យល់ និងផ្ទុកមេរោគពិតប្រាកដដែលរកឃើញនៅក្នុងបណ្តាញ បច្ចេកទេសទាំងនេះអនុវត្តនៅទូទាំងឧស្សាហកម្ម។ ធនាគារមួយអាចនឹងប្រើការវិភាគមេរោគដែលជំរុញដោយ AI ដើម្បីវិភាគម៉ាក្រូដែលគួរឱ្យសង្ស័យក្នុងសៀវភៅបញ្ជីមួយយ៉ាងឆាប់រហ័ស ខណៈដែលក្រុមហ៊ុនផលិតកម្មអាចពឹងផ្អែកលើ AI ដើម្បីស្វែងរកមេរោគដែលកំណត់គោលដៅលើប្រព័ន្ធគ្រប់គ្រងឧស្សាហកម្ម។ តាមរយៈការបង្កើនការវិភាគមេរោគតាមបែបប្រពៃណីជាមួយនឹង AI បង្កើត អង្គការអាចឆ្លើយតបទៅនឹងយុទ្ធនាការមេរោគបានលឿន និងសកម្មជាងមុន។

ការវិភាគការគំរាមកំហែង និងស្វ័យប្រវត្តិកម្ម

ជារៀងរាល់ថ្ងៃ អង្គការនានាត្រូវបានវាយប្រហារដោយទិន្នន័យចារកម្មគំរាមកំហែង – ពីព័ត៌មាននៃសូចនាករនៃការសម្របសម្រួល (IOCs) ដែលបានរកឃើញថ្មីៗ ដល់របាយការណ៍អ្នកវិភាគអំពីយុទ្ធសាស្ត្រហេកឃ័រដែលកំពុងលេចចេញ។ បញ្ហា​ប្រឈម​សម្រាប់​ក្រុម​សន្តិសុខ​គឺ​កំពុង​ឆ្លងកាត់​ការ​លិចលង់​នៃ​ព័ត៌មាន​នេះ និង​ទាញយក​ការ​យល់​ដឹង​ដែល​អាច​ធ្វើ​បាន​។ Generative AI កំពុងបង្ហាញពីតម្លៃដែលមិនអាចកាត់ថ្លៃបានក្នុង ការវិភាគ និងការប្រើប្រាស់ព័ត៌មានសម្ងាត់នៃការគំរាមកំហែងដោយស្វ័យប្រវត្តិ ។ ជំនួសឱ្យការអានរបាយការណ៍រាប់សិប ឬធាតុមូលដ្ឋានទិន្នន័យដោយដៃ អ្នកវិភាគអាចប្រើ AI ដើម្បីសង្ខេប និងកំណត់បរិបទនៃការគំរាមកំហែងរបស់ Intel ក្នុងល្បឿនម៉ាស៊ីន។

ការគំរាមកំហែង របស់ Google ដែលរួមបញ្ចូល AI ជំនាន់ថ្មី (គំរូ Gemini) ជាមួយនឹងទិន្នន័យគំរាមកំហែងរបស់ Google ពី Mandiant និង VirusTotal ។ AI នេះផ្តល់នូវ "ការស្វែងរកការសន្ទនានៅទូទាំងឃ្លាំងសម្ងាត់នៃការគំរាមកំហែងដ៏ធំរបស់ Google" ដែលអនុញ្ញាតឱ្យអ្នកប្រើប្រាស់សួរសំណួរធម្មជាតិអំពីការគំរាមកំហែង និងទទួលបានចម្លើយដែលចម្រាញ់បាន ( តើ AI ជំនាន់ថ្មីអាចប្រើក្នុងសុវត្ថិភាពតាមអ៊ីនធឺណិតបានយ៉ាងដូចម្តេច? 10 Real-World Examples ) ។ ជាឧទាហរណ៍ អ្នកវិភាគអាចសួរថា "តើយើងបានឃើញមេរោគណាមួយទាក់ទងនឹង Threat Group X សំដៅលើឧស្សាហកម្មរបស់យើងទេ?" ហើយ AI នឹងទាញ Intel ដែលពាក់ព័ន្ធ ដោយប្រហែលជាកត់សំគាល់ថា "បាទ, Threat Group X ត្រូវបានភ្ជាប់ទៅយុទ្ធនាការបន្លំកាលពីខែមុនដោយប្រើមេរោគ Y" រួមជាមួយនឹងសេចក្តីសង្ខេបនៃអាកប្បកិរិយារបស់មេរោគនោះ។ នេះកាត់បន្ថយពេលវេលាយ៉ាងច្រើនក្នុងការប្រមូលផ្តុំការយល់ដឹង ដែលនឹងតម្រូវឱ្យសាកសួរឧបករណ៍ច្រើន ឬអានរបាយការណ៍វែងៗ។

Generative AI ក៏អាចទាក់ទងគ្នា និង សង្ខេបនិន្នាការគំរាមកំហែង ។ វាអាចនឹងឆ្លងកាត់ការបង្ហោះប្លុកសុវត្ថិភាពរាប់ពាន់ ពត៌មានរំលោភបំពាន និងការជជែកវែកញែកលើបណ្តាញងងឹត ហើយបន្ទាប់មកបង្កើតសេចក្តីសង្ខេបប្រតិបត្តិនៃ "ការគំរាមកំហែងតាមអ៊ីនធឺណិតកំពូលនៅសប្តាហ៍នេះ" សម្រាប់ការសង្ខេបរបស់ CISO ។ ជាប្រពៃណី កម្រិតនៃការវិភាគ និងការរាយការណ៍នេះបានយកការខិតខំប្រឹងប្រែងរបស់មនុស្សយ៉ាងសំខាន់។ ឥឡូវនេះ គំរូដែលបានកែតម្រូវយ៉ាងល្អអាចព្រាងវាក្នុងរយៈពេលប៉ុន្មានវិនាទី ដោយមនុស្សធ្វើការកែលម្អតែលទ្ធផលប៉ុណ្ណោះ។ ក្រុមហ៊ុនដូចជា ZeroFox បានបង្កើត FoxGPT ដែលជាឧបករណ៍ AI ជំនាន់ថ្មីដែលត្រូវបានរចនាឡើងជាពិសេសដើម្បី "ពន្លឿនការវិភាគ និងការសង្ខេបនៃការស៊ើបការណ៍សម្ងាត់នៅទូទាំងសំណុំទិន្នន័យធំ" រួមទាំងមាតិកាព្យាបាទ និងទិន្នន័យបន្លំ ( តើ AI ជំនាន់ថ្មីអាចប្រើក្នុងសុវត្ថិភាពតាមអ៊ីនធឺណិតបានដោយរបៀបណា? 10 Real-World Examples ) ។ តាមរយៈការធ្វើស្វ័យប្រវត្តិកម្មនៃការលើកច្រើននៃការអាន និងទិន្នន័យយោងឆ្លង AI អនុញ្ញាតឱ្យក្រុម Intel គំរាមកំហែងផ្តោតលើការសម្រេចចិត្ត និងការឆ្លើយតប។

ករណីប្រើប្រាស់មួយផ្សេងទៀតគឺ ការស្វែងរកការគំរាមកំហែងដោយការសន្ទនា ។ ស្រមៃថាអ្នកវិភាគសុវត្ថិភាពធ្វើអន្តរកម្មជាមួយជំនួយការ AI៖ "បង្ហាញខ្ញុំនូវសញ្ញាណាមួយនៃការជំរិតទិន្នន័យក្នុងរយៈពេល 48 ម៉ោងចុងក្រោយ""តើអ្នកវាយប្រហារដែលមានភាពងាយរងគ្រោះថ្មីកំពូលកំពុងកេងប្រវ័ញ្ចក្នុងសប្តាហ៍នេះអ្វីខ្លះ?" AI អាចបកស្រាយសំណួរ ស្វែងរកកំណត់ហេតុខាងក្នុង ឬប្រភពខាងក្រៅរបស់ Intel និងឆ្លើយតបជាមួយនឹងចម្លើយច្បាស់លាស់ ឬសូម្បីតែបញ្ជីឧប្បត្តិហេតុដែលពាក់ព័ន្ធ។ នេះមិនមែនជារឿងឆ្ងាយទេ - ប្រព័ន្ធព័ត៌មានសុវត្ថិភាពទំនើប និងការគ្រប់គ្រងព្រឹត្តិការណ៍ (SIEM) កំពុងចាប់ផ្តើមបញ្ចូលការសួរភាសាធម្មជាតិ។ ជាឧទាហរណ៍ ឈុតសុវត្ថិភាព QRadar របស់ IBM កំពុងបន្ថែមមុខងារ AI ជំនាន់ថ្មីក្នុងឆ្នាំ 2024 ដើម្បីឱ្យអ្នកវិភាគ “សួរ […] សំណួរជាក់លាក់អំពីផ្លូវវាយប្រហារសង្ខេប” នៃឧប្បត្តិហេតុ និងទទួលបានចម្លើយលម្អិត។ វាក៏អាច "បកស្រាយ និងសង្ខេបការស៊ើបការណ៍សម្ងាត់នៃការគំរាមកំហែងដែលពាក់ព័ន្ធខ្ពស់" ដោយស្វ័យប្រវត្តិ ( តើ AI Generative Can be used in Cybersecurity? 10 Real-World Examples )។ សំខាន់ AI ជំនាន់ថ្មីប្រែភ្នំនៃទិន្នន័យបច្ចេកទេសទៅជាការយល់ដឹងទំហំជជែកតាមតម្រូវការ។

នៅទូទាំងឧស្សាហកម្ម វាមានផលប៉ះពាល់ធំ។ អ្នកផ្តល់សេវាថែទាំសុខភាពអាចប្រើ AI ដើម្បីបន្តធ្វើបច្ចុប្បន្នភាពលើក្រុម ransomware ចុងក្រោយបំផុតដែលផ្តោតលើមន្ទីរពេទ្យ ដោយមិនកំណត់អ្នកវិភាគទៅការស្រាវជ្រាវពេញម៉ោង។ SOC របស់ក្រុមហ៊ុនលក់រាយមួយអាចសង្ខេបយុទ្ធសាស្ត្រមេរោគ POS ថ្មីបានយ៉ាងឆាប់រហ័ស នៅពេលសង្ខេបបុគ្គលិក IT ហាង។ ហើយនៅក្នុងរដ្ឋាភិបាល ដែលទិន្នន័យគំរាមកំហែងពីទីភ្នាក់ងារផ្សេងៗត្រូវតែត្រូវបានសំយោគ AI អាចបង្កើតរបាយការណ៍បង្រួបបង្រួមដែលបញ្ជាក់ពីការព្រមានសំខាន់ៗ។ តាមរយៈ ការប្រមូលផ្តុំ និងការបកស្រាយការគំរាមកំហែងដោយស្វ័យប្រវត្តិ AI ជំនាន់ថ្មីជួយឱ្យស្ថាប័នមានប្រតិកម្មលឿនជាងមុនចំពោះការគំរាមកំហែងដែលកំពុងកើតឡើង និងកាត់បន្ថយហានិភ័យនៃការបាត់ការព្រមានសំខាន់ៗដែលលាក់នៅក្នុងសំលេងរំខាន។

ការបង្កើនប្រសិទ្ធភាពមជ្ឈមណ្ឌលប្រតិបត្តិការសុវត្ថិភាព (SOC)

មជ្ឈមណ្ឌលប្រតិបត្តិការសុវត្ថិភាពមានភាពល្បីល្បាញដោយសារការជូនដំណឹងអំពីភាពអស់កម្លាំង និងទិន្នន័យដែលខ្ទេចខ្ទាំ។ អ្នកវិភាគ SOC ធម្មតាអាចឆ្លងកាត់ការដាស់តឿន និងព្រឹត្តិការណ៍រាប់ពាន់ជារៀងរាល់ថ្ងៃ ដោយស៊ើបអង្កេតឧប្បត្តិហេតុដែលអាចកើតមាន។ Generative AI កំពុងដើរតួជាមេគុណកម្លាំងនៅក្នុង SOCs ដោយស្វ័យប្រវត្តិកម្មការងារប្រចាំថ្ងៃ ផ្តល់នូវសេចក្តីសង្ខេបដ៏ឆ្លាតវៃ និងសូម្បីតែរៀបចំការឆ្លើយតបមួយចំនួន។ គោលដៅគឺដើម្បីបង្កើនប្រសិទ្ធភាពលំហូរការងារ SOC ដើម្បីឱ្យអ្នកវិភាគរបស់មនុស្សអាចផ្តោតលើបញ្ហាសំខាន់ៗបំផុត ខណៈដែល AI copilot ដោះស្រាយអ្វីដែលនៅសល់។

កម្មវិធីសំខាន់មួយកំពុងប្រើ AI ជំនាន់ថ្មីជា "អ្នកវិភាគអ្នកវិភាគ" ។ Microsoft's Security Copilot ដែលបានកត់សម្គាល់មុននេះ ជាឧទាហរណ៍៖ វា "ត្រូវបានរចនាឡើងដើម្បីជួយដល់ការងាររបស់អ្នកវិភាគសុវត្ថិភាពជាជាងជំនួសវា" ជួយក្នុងការស៊ើបអង្កេត និងរាយការណ៍ឧប្បត្តិហេតុ ( Microsoft Security Copilot គឺជាជំនួយការ AI GPT-4 ថ្មីសម្រាប់សន្តិសុខតាមអ៊ីនធឺណិត | The Verge ) ។ នៅក្នុងការអនុវត្ត នេះមានន័យថាអ្នកវិភាគអាចបញ្ចូលទិន្នន័យឆៅ – កំណត់ហេតុជញ្ជាំងភ្លើង ការកំណត់ពេលវេលាព្រឹត្តិការណ៍ ឬការពិពណ៌នាឧប្បត្តិហេតុ – ហើយសុំឱ្យ AI វិភាគវា ឬសង្ខេបវា។ អ្នកបើកយន្តហោះអាចបញ្ចេញការនិទានរឿងដូចជា "វាហាក់បីដូចជានៅម៉ោង 2:35 ព្រឹក ការចូលគួរឱ្យសង្ស័យពី IP X បានជោគជ័យនៅលើ Server Y អមដោយការផ្ទេរទិន្នន័យខុសពីធម្មតា ដែលបង្ហាញពីការបំពានសក្តានុពលនៃម៉ាស៊ីនមេនោះ។" ប្រភេទនៃបរិបទភ្លាមៗនេះគឺមានតម្លៃមិនអាចកាត់ថ្លៃបាន នៅពេលដែលពេលវេលាមានសារៈសំខាន់។

AI copilots ក៏ជួយកាត់បន្ថយបន្ទុកកម្រិត 1 ផងដែរ។ យោងតាមទិន្នន័យឧស្សាហកម្ម ក្រុមសន្តិសុខអាចចំណាយពេល 15 ម៉ោងក្នុងមួយសប្តាហ៍ ដោយគ្រាន់តែតម្រៀបតាមរយៈការជូនដំណឹងចំនួន 22,000 និងផលវិជ្ជមានមិនពិត ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] )។ ជាមួយនឹង AI ជំនាន់មុន ការជូនដំណឹងទាំងនេះជាច្រើនអាចត្រូវបានសាកល្បងដោយស្វ័យប្រវត្តិ - AI អាចច្រានចោលនូវអ្វីដែលមានលក្ខណៈស្លូតបូតយ៉ាងច្បាស់ (ជាមួយនឹងការផ្តល់ហេតុផល) និងគូសបញ្ជាក់ពីអ្វីដែលពិតជាត្រូវការការយកចិត្តទុកដាក់ ជួនកាលថែមទាំងផ្តល់យោបល់អំពីអាទិភាពទៀតផង។ ជាការពិត ភាពខ្លាំងរបស់ AI ជំនាន់ថ្មីក្នុងការយល់ដឹងអំពីបរិបទមានន័យថា វាអាចមានការជូនដំណឹងដែលទាក់ទងគ្នា ដែលអាចហាក់ដូចជាគ្មានគ្រោះថ្នាក់នៅក្នុងភាពឯកោ ប៉ុន្តែការរួមគ្នាបង្ហាញពីការវាយប្រហារពហុដំណាក់កាល។ នេះកាត់បន្ថយឱកាសនៃការបាត់បង់ការវាយប្រហារដោយសារតែ "ភាពអស់កម្លាំងប្រុងប្រយ័ត្ន" ។

អ្នកវិភាគ SOC ក៏កំពុងប្រើភាសាធម្មជាតិជាមួយ AI ដើម្បីបង្កើនល្បឿនការបរបាញ់ និងការស៊ើបអង្កេតផងដែរ។ AI ពណ៌ស្វាយ របស់ SentinelOne រួមបញ្ចូលគ្នានូវចំណុចប្រទាក់ដែលមានមូលដ្ឋានលើ LLM ជាមួយនឹងទិន្នន័យសុវត្ថិភាពពេលវេលាជាក់ស្តែង ដែលអនុញ្ញាតឱ្យអ្នកវិភាគ "សួរសំណួរការគំរាមកំហែងដ៏ស្មុគស្មាញជាភាសាអង់គ្លេសធម្មតា និងទទួលបានចម្លើយយ៉ាងរហ័ស និងត្រឹមត្រូវ" ( តើ AI ជំនាន់ថ្មីអាចប្រើក្នុងសុវត្ថិភាពតាមអ៊ីនធឺណិតបានយ៉ាងដូចម្តេច? 10 Real-World Examples ) ។ អ្នកវិភាគអាចវាយថា "តើមានចំណុចបញ្ចប់ណាមួយទាក់ទងជាមួយ domain badguy123[.]com ក្នុងខែមុនទេ?" ហើយ Purple AI នឹងស្វែងរកតាមរយៈកំណត់ហេតុដើម្បីឆ្លើយតប។ វាជួយសង្រ្គោះអ្នកវិភាគពីការសរសេរសំណួរ ឬស្គ្រីបមូលដ្ឋានទិន្នន័យ – AI ធ្វើវានៅក្រោមក្រណាត់។ វាក៏មានន័យថាអ្នកវិភាគវ័យក្មេងអាចដោះស្រាយកិច្ចការដែលពីមុនត្រូវការវិស្វករដែលមានជំនាញក្នុងភាសាសំណួរ បង្កើនជំនាញក្រុមឱ្យមានប្រសិទ្ធភាពតាមរយៈជំនួយ AI ។ ជាការពិតណាស់ អ្នកវិភាគរាយការណ៍ថា ការណែនាំ AI ជំនាន់ "បង្កើនជំនាញ និងសមត្ថភាពរបស់ពួកគេ" ខណៈដែលបុគ្គលិកតូចៗឥឡូវនេះអាចទទួលបានការគាំទ្រការសរសេរកូដតាមតម្រូវការ ឬការណែនាំអំពីការវិភាគពី AI ដោយកាត់បន្ថយការពឹងផ្អែកលើការស្នើសុំសមាជិកជាន់ខ្ពស់សម្រាប់ជំនួយ ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] )។

ការបង្កើនប្រសិទ្ធភាព SOC មួយផ្សេងទៀតគឺ ការសង្ខេបឧប្បត្តិហេតុដោយស្វ័យប្រវត្តិ និងឯកសារ ។ បន្ទាប់ពីឧប្បត្តិហេតុត្រូវបានដោះស្រាយ នរណាម្នាក់ត្រូវតែសរសេររបាយការណ៍ ដែលជាកិច្ចការដែលមនុស្សជាច្រើនធុញទ្រាន់។ Generative AI អាចយកទិន្នន័យធ្វើកោសល្យវិច្ច័យ (កំណត់ហេតុប្រព័ន្ធ ការវិភាគមេរោគ ការកំណត់ពេលវេលានៃសកម្មភាព) និងបង្កើតរបាយការណ៍ឧប្បត្តិហេតុព្រាងដំបូង។ ក្រុមហ៊ុន IBM កំពុងបង្កើតសមត្ថភាពនេះទៅក្នុង QRadar ដើម្បីឱ្យ "ការចុចមួយដង" សេចក្តីសង្ខេបនៃឧប្បត្តិហេតុអាចត្រូវបានផលិតសម្រាប់អ្នកពាក់ព័ន្ធផ្សេងៗគ្នា (នាយកប្រតិបត្តិ ក្រុម IT ។ នេះមិនត្រឹមតែជួយសន្សំសំចៃពេលវេលាប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងធានាថាមិនមានអ្វីត្រូវមើលរំលងនៅក្នុងរបាយការណ៍នោះទេ ដោយសារ AI អាចរួមបញ្ចូលព័ត៌មានលម្អិតពាក់ព័ន្ធទាំងអស់ជាប់លាប់។ ដូចគ្នានេះដែរ សម្រាប់ការអនុលោមតាម និងសវនកម្ម AI អាចបំពេញទម្រង់ ឬតារាងភស្តុតាងដោយផ្អែកលើទិន្នន័យឧប្បត្តិហេតុ។

លទ្ធផល​ពិភព​លោក​ពិត​ជា​គួរ​ឱ្យ​ចាប់​អារម្មណ៍។ អ្នកទទួលយកដំបូងរបស់ Swimlane's AI-driven SOAR (ការរៀបចំសុវត្ថិភាព ស្វ័យប្រវត្តិកម្ម និងការឆ្លើយតប) រាយការណ៍ពីការកើនឡើងផលិតភាពដ៏ធំ - ជាឧទាហរណ៍ ប្រព័ន្ធទិន្នន័យសកលបានឃើញក្រុម SecOps របស់ពួកគេគ្រប់គ្រងបន្ទុកករណីធំជាង។ នាយកម្នាក់បាននិយាយថា "អ្វីដែលខ្ញុំធ្វើនៅថ្ងៃនេះជាមួយអ្នកវិភាគចំនួន 7 នាក់ប្រហែលជានឹងយកបុគ្គលិកចំនួន 20 នាក់ដោយគ្មាន" ស្វ័យប្រវត្តិកម្មដែលដំណើរការដោយ AI ( តើ AI ជំនាន់ថ្មីអាចត្រូវបានប្រើប្រាស់ក្នុង Cybersecurity យ៉ាងដូចម្តេច )។ ម្យ៉ាងវិញទៀត AI នៅក្នុង SOC អាចបង្កើនសមត្ថភាព ។ នៅទូទាំងឧស្សាហកម្ម មិនថាជាក្រុមហ៊ុនបច្ចេកវិទ្យាដែលដោះស្រាយការជូនដំណឹងអំពីសុវត្ថិភាពលើពពក ឬរោងចក្រផលិតត្រួតពិនិត្យប្រព័ន្ធ OT ក្រុម SOC ឈរដើម្បីទទួលបានការរកឃើញ និងការឆ្លើយតបលឿនជាងមុន ឧបទ្ទវហេតុដែលខកខានតិចជាងមុន និងប្រតិបត្តិការប្រកបដោយប្រសិទ្ធភាពជាងមុនដោយការទទួលយកជំនួយការ AI ជំនាន់ថ្មី។ វានិយាយអំពីការធ្វើការកាន់តែឆ្លាតវៃ – អនុញ្ញាតឱ្យម៉ាស៊ីនដោះស្រាយកិច្ចការដដែលៗ និងទិន្នន័យធ្ងន់ ដូច្នេះមនុស្សអាចអនុវត្តវិចារណញាណ និងជំនាញរបស់ពួកគេនៅកន្លែងដែលវាសំខាន់បំផុត។

ការគ្រប់គ្រងភាពងាយរងគ្រោះ និងការក្លែងធ្វើការគំរាមកំហែង

ការកំណត់អត្តសញ្ញាណ និងគ្រប់គ្រងភាពងាយរងគ្រោះ – ភាពទន់ខ្សោយនៅក្នុងកម្មវិធី ឬប្រព័ន្ធដែលអ្នកវាយប្រហារអាចទាញយកប្រយោជន៍ – គឺជាមុខងារស្នូលសន្តិសុខតាមអ៊ីនធឺណិត។ Generative AI កំពុងពង្រឹងការគ្រប់គ្រងភាពងាយរងគ្រោះដោយការបង្កើនល្បឿននៃការរកឃើញ ជំនួយក្នុងការកំណត់អាទិភាពបំណះ និងសូម្បីតែការក្លែងធ្វើការវាយប្រហារលើភាពងាយរងគ្រោះទាំងនោះ ដើម្បីកែលម្អការត្រៀមខ្លួន។ សរុបមក AI កំពុងជួយឱ្យស្ថាប័នស្វែងរក និងជួសជុលរន្ធនៅក្នុងគ្រឿងសឹករបស់ពួកគេកាន់តែលឿន និង យ៉ាងសកម្ម មុនពេលអ្នកវាយប្រហារពិតប្រាកដធ្វើ។

កម្មវិធីដ៏សំខាន់មួយកំពុងប្រើប្រាស់ AI ជំនាន់ថ្មីសម្រាប់ ការពិនិត្យមើលកូដដោយស្វ័យប្រវត្តិ និងការរកឃើញភាពងាយរងគ្រោះ ។ មូលដ្ឋានកូដធំ (ជាពិសេសប្រព័ន្ធកេរដំណែល) ជារឿយៗមានគុណវិបត្តិសុវត្ថិភាពដែលមិនមានការកត់សម្គាល់។ គំរូ AI ជំនាន់ថ្មីអាចត្រូវបានបណ្តុះបណ្តាលលើការអនុវត្តការសរសេរកូដដែលមានសុវត្ថិភាព និងលំនាំកំហុសទូទៅ បន្ទាប់មកបញ្ចេញនៅលើកូដប្រភព ឬចងក្រងប្រព័ន្ធគោលពីរ ដើម្បីស្វែងរកភាពងាយរងគ្រោះដែលអាចកើតមាន។ ឧទាហរណ៍ អ្នកស្រាវជ្រាវ NVIDIA បានបង្កើតបំពង់ AI ដែលអាចវិភាគឧបករណ៍ផ្ទុកកម្មវិធីចាស់ៗ និងកំណត់អត្តសញ្ញាណភាពងាយរងគ្រោះ "ជាមួយនឹងភាពត្រឹមត្រូវខ្ពស់ - រហូតដល់ 4 × លឿនជាងអ្នកជំនាញរបស់មនុស្ស" ។ ( 6 ប្រើករណីសម្រាប់ AI ជំនាន់ថ្មីក្នុងសុវត្ថិភាពអ៊ីនធឺណិត [+ ឧទាហរណ៍] ) ។ AI បានសិក្សាយ៉ាងសំខាន់នូវអ្វីដែលកូដមិនមានសុវត្ថិភាពមើលទៅ ហើយអាចស្កែនតាមរយៈកម្មវិធីដែលមានអាយុកាលរាប់ទសវត្សរ៍ ដើម្បីដាក់ទង់មុខងារ និងបណ្ណាល័យដែលមានហានិភ័យ បង្កើនល្បឿនដំណើរការយឺតជាធម្មតានៃសវនកម្មកូដដោយដៃ។ ឧបករណ៍ប្រភេទនេះអាចជាឧបករណ៍ផ្លាស់ប្តូរហ្គេមសម្រាប់ឧស្សាហកម្មដូចជាហិរញ្ញវត្ថុ ឬរដ្ឋាភិបាលដែលពឹងផ្អែកលើមូលដ្ឋានកូដចាស់ៗធំ - AI ជួយធ្វើទំនើបកម្មសន្តិសុខដោយស្វែងរកបញ្ហាដែលបុគ្គលិកអាចចំណាយពេលច្រើនខែ ឬច្រើនឆ្នាំដើម្បីស្វែងរក (ប្រសិនបើមាន)។

Generative AI ក៏ជួយក្នុង ដំណើរការគ្រប់គ្រងភាពងាយរងគ្រោះ ដោយដំណើរការលទ្ធផលស្កេនភាពងាយរងគ្រោះ និងផ្តល់អាទិភាពដល់ពួកគេ។ ឧបករណ៍ដូចជា ExposureAI ប្រើប្រាស់ AI ជំនាន់ថ្មី ដើម្បីអនុញ្ញាតឱ្យអ្នកវិភាគសាកសួរទិន្នន័យភាពងាយរងគ្រោះជាភាសាសាមញ្ញ និងទទួលបានចម្លើយភ្លាមៗ ( តើ AI ជំនាន់ថ្មីអាចប្រើក្នុងសុវត្ថិភាពតាមអ៊ីនធឺណិតបានដោយរបៀបណា? 10 Real-World Examples ) ។ ExposureAI អាច "សង្ខេបផ្លូវនៃការវាយប្រហារពេញលេញនៅក្នុងការនិទានកថា" សម្រាប់ភាពងាយរងគ្រោះដ៏សំខាន់ដែលបានផ្តល់ឱ្យដោយពន្យល់ពីរបៀបដែលអ្នកវាយប្រហារអាចភ្ជាប់វាជាមួយនឹងភាពទន់ខ្សោយផ្សេងទៀតដើម្បីសម្របសម្រួលប្រព័ន្ធមួយ។ វាថែមទាំងណែនាំសកម្មភាពដើម្បីដោះស្រាយ និងឆ្លើយសំណួរតាមដានអំពីហានិភ័យ។ នេះមានន័យថានៅពេលដែល CVE សំខាន់ថ្មី (ភាពងាយរងគ្រោះ និងការបង្ហាញទូទៅ) ត្រូវបានប្រកាស អ្នកវិភាគអាចសួរ AI ថា "តើម៉ាស៊ីនមេណាមួយរបស់យើងរងផលប៉ះពាល់ដោយ CVE នេះ ហើយតើអ្វីទៅជាសេណារីយ៉ូដ៏អាក្រក់បំផុតប្រសិនបើយើងមិន patch?" និងទទួលបានការវាយតម្លៃច្បាស់លាស់ដែលទាញចេញពីទិន្នន័យស្កែនផ្ទាល់ខ្លួនរបស់ស្ថាប័ន។ តាមរយៈការកំណត់បរិបទភាពងាយរងគ្រោះ (ឧ. បណ្តាញនេះប៉ះពាល់នឹងអ៊ីនធឺណិត និងនៅលើម៉ាស៊ីនមេដែលមានតម្លៃខ្ពស់ ដូច្នេះវាជាអាទិភាពកំពូល) AI ជំនាន់មុនជួយក្រុមឱ្យធ្វើការជួសជុលយ៉ាងឆ្លាតវៃជាមួយនឹងធនធានមានកំណត់។

បន្ថែមពីលើការស្វែងរក និងគ្រប់គ្រងភាពងាយរងគ្រោះដែលគេស្គាល់នោះ AI បង្កើតបានរួមចំណែកដល់ ការធ្វើតេស្តការជ្រៀតចូល និងការក្លែងធ្វើការវាយប្រហារ – សំខាន់ការស្វែងរក ដែលមិនស្គាល់ ឬសាកល្បងការត្រួតពិនិត្យសុវត្ថិភាព។ Generative adversarial networks (GANs) ដែលជាប្រភេទ AI បង្កើត ត្រូវបានគេប្រើប្រាស់ដើម្បីបង្កើតទិន្នន័យសំយោគដែលធ្វើត្រាប់តាមចរាចរបណ្តាញពិត ឬអាកប្បកិរិយារបស់អ្នកប្រើ ដែលអាចរួមបញ្ចូលគំរូការវាយប្រហារដែលលាក់កំបាំង។ ការសិក្សាឆ្នាំ 2023 បានស្នើឱ្យប្រើ GANs ដើម្បីបង្កើតចរាចរការវាយប្រហារសូន្យថ្ងៃពិតប្រាកដ ដើម្បីបណ្តុះបណ្តាលប្រព័ន្ធរកឃើញការឈ្លានពាន ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] ) ។ តាមរយៈការផ្តល់អាហារដល់ IDS ជាមួយនឹងសេណារីយ៉ូនៃការវាយប្រហារដែលបង្កើតដោយ AI (ដែលមិនប្រថុយនឹងការប្រើប្រាស់មេរោគពិតប្រាកដនៅលើបណ្តាញផលិតកម្ម) អង្គការនានាអាចបណ្តុះបណ្តាលការការពាររបស់ពួកគេដើម្បីទទួលស្គាល់ការគំរាមកំហែងប្រលោមលោកដោយមិនរង់ចាំឱ្យពួកគេវាយប្រហារតាមការពិត។ ស្រដៀងគ្នានេះដែរ AI អាចក្លែងធ្វើអ្នកវាយប្រហារដែលកំពុងស៊ើបអង្កេតប្រព័ន្ធមួយ ជាឧទាហរណ៍ សាកល្បងដោយស្វ័យប្រវត្តិនូវបច្ចេកទេសកេងប្រវ័ញ្ចផ្សេងៗនៅក្នុងបរិយាកាសសុវត្ថិភាព ដើម្បីមើលថាតើមានជោគជ័យឬអត់។ ទីភ្នាក់ងារគម្រោងស្រាវជ្រាវកម្រិតខ្ពស់របស់សហរដ្ឋអាមេរិក (DARPA) មើលឃើញការសន្យានៅទីនេះ៖ ការប្រកួតប្រជែង AI Cyber ​​Challenge ឆ្នាំ 2023 របស់ខ្លួនប្រើប្រាស់យ៉ាងច្បាស់នូវ AI ជំនាន់ថ្មី (ដូចជាគំរូភាសាធំៗ) ដើម្បី "ស្វែងរក និងជួសជុលភាពងាយរងគ្រោះដោយស្វ័យប្រវត្តិនៅក្នុងកម្មវិធីប្រភពបើកចំហ" ដែលជាផ្នែកមួយនៃការប្រកួតប្រជែង ( DARPA គោលបំណងដើម្បីអភិវឌ្ឍ AI, កម្មវិធីស្វ័យភាពនៃកម្មវិធី Warfighters > ក្រសួងការពារជាតិអាមេរិក ) ។ គំនិតផ្តួចផ្តើមនេះគូសបញ្ជាក់ថា AI មិនត្រឹមតែជួយជួសជុលរន្ធដែលគេស្គាល់ប៉ុណ្ណោះទេ។ វាកំពុងស្វែងរកយ៉ាងសកម្មនូវអ្វីដែលថ្មី និងស្នើសុំការជួសជុល ដែលជាភារកិច្ចកំណត់ជាប្រពៃណីចំពោះអ្នកស្រាវជ្រាវសន្តិសុខដែលមានជំនាញ (និងមានតម្លៃថ្លៃ)។

Generative AI ថែមទាំងអាចបង្កើត Honeypots ឆ្លាតវៃ និងឌីជីថលភ្លោះ សម្រាប់ការពារ។ ការចាប់ផ្តើមអាជីវកម្មកំពុងបង្កើតប្រព័ន្ធបញ្ឆោតដែលជំរុញដោយ AI ដែលធ្វើត្រាប់តាមម៉ាស៊ីនមេ ឬឧបករណ៍ពិតប្រាកដ។ ដូចដែលនាយកប្រតិបត្តិម្នាក់បានពន្យល់ថា AI ជំនាន់ថ្មីអាច "ក្លូនប្រព័ន្ធឌីជីថល ដើម្បីធ្វើត្រាប់តាមពិត និងទាក់ទាញពួក Hacker" ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] ) ។ Honeypots ដែលបង្កើតដោយ AI ទាំងនេះមានឥរិយាបទដូចជាបរិយាកាសពិត (និយាយថាជាឧបករណ៍ IoT ក្លែងក្លាយដែលផ្ញើ telemetry ធម្មតា) ប៉ុន្តែមានតែមួយគត់ដើម្បីទាក់ទាញអ្នកវាយប្រហារ។ នៅពេលដែលអ្នកវាយប្រហារកំណត់គោលដៅបោកបញ្ឆោត AI បានបញ្ឆោតពួកគេឱ្យបង្ហាញវិធីសាស្រ្តរបស់ពួកគេ ដែលអ្នកការពារអាចសិក្សា និងប្រើប្រាស់ដើម្បីពង្រឹងប្រព័ន្ធពិត។ គំនិតនេះដំណើរការដោយការបង្កើតគំរូទូទៅ ផ្តល់នូវវិធីឆ្ពោះទៅមុខដើម្បី បង្វែរតារាងលើអ្នកវាយប្រហារ ដោយប្រើការបោកបញ្ឆោតដែលត្រូវបានពង្រឹងដោយ AI ។

នៅទូទាំងឧស្សាហកម្ម ការគ្រប់គ្រងភាពងាយរងគ្រោះកាន់តែលឿន និងឆ្លាតវៃ មានន័យថាមានការបំពានតិចជាងមុន។ ជាឧទាហរណ៍ នៅក្នុងផ្នែកថែទាំសុខភាព អាយធី AI អាចនឹងរកឃើញបណ្ណាល័យដែលងាយរងគ្រោះហួសសម័យនៅក្នុងឧបករណ៍វេជ្ជសាស្ត្រ ហើយជំរុញឱ្យមានការជួសជុលកម្មវិធីបង្កប់ មុនពេលអ្នកវាយប្រហារណាមួយធ្វើអាជីវកម្មវា។ នៅក្នុងវិស័យធនាគារ AI អាចក្លែងធ្វើការវាយប្រហារខាងក្នុងលើកម្មវិធីថ្មីមួយ ដើម្បីធានាថាទិន្នន័យរបស់អតិថិជននៅតែមានសុវត្ថិភាពនៅក្រោមគ្រប់សេណារីយ៉ូ។ ដូច្នេះ AI ជំនាន់ថ្មីដើរតួជាមីក្រូទស្សន៍ និងជាឧបករណ៍ធ្វើតេស្តស្ត្រេសសម្រាប់ឥរិយាបថសុវត្ថិភាពរបស់ស្ថាប័ន៖ វាបំភ្លឺនូវកំហុសដែលលាក់កំបាំង និងប្រព័ន្ធសម្ពាធក្នុងវិធីស្រមើលស្រមៃ ដើម្បីធានាបាននូវភាពធន់។

ការបង្កើតកូដសុវត្ថិភាព និងការអភិវឌ្ឍន៍កម្មវិធី

ភាពប៉ិនប្រសប់របស់ AI ជំនាន់ថ្មីមិនត្រូវបានកំណត់ចំពោះការរកឃើញការវាយប្រហារនោះទេ ពួកគេក៏ពង្រីកដល់ ការបង្កើតប្រព័ន្ធសុវត្ថិភាពបន្ថែមទៀតតាំងពីដំបូង ។ នៅក្នុងការអភិវឌ្ឍន៍កម្មវិធី អ្នកបង្កើតកូដ AI (ដូចជា GitHub Copilot, OpenAI Codex ។ មុំសុវត្ថិភាពតាមអ៊ីនធឺណិតកំពុងធានាថាបំណែកកូដដែលបានណែនាំដោយ AI ទាំងនេះមានសុវត្ថិភាព និងប្រើប្រាស់ AI ដើម្បីកែលម្អការអនុវត្តការសរសេរកូដ។

ម្យ៉ាងវិញទៀត AI ជំនាន់ថ្មីអាចដើរតួជា ជំនួយការសរសេរកូដដែលបង្កប់នូវការអនុវត្តល្អបំផុតផ្នែកសុវត្ថិភាព ។ អ្នកអភិវឌ្ឍន៍អាចជម្រុញឧបករណ៍ AI "បង្កើតមុខងារកំណត់ពាក្យសម្ងាត់ឡើងវិញនៅក្នុង Python" ហើយតាមឧត្ដមគតិទទួលបានលេខកូដត្រឡប់មកវិញដែលមិនត្រឹមតែមានមុខងារប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងធ្វើតាមការណែនាំដែលមានសុវត្ថិភាពផងដែរ (ឧ. ជំនួយការបែបនេះ ដែលត្រូវបានបណ្តុះបណ្តាលលើឧទាហរណ៍កូដសុវត្ថិភាពយ៉ាងទូលំទូលាយ អាចជួយកាត់បន្ថយកំហុសរបស់មនុស្សដែលនាំទៅរកភាពងាយរងគ្រោះ។ ឧទាហរណ៍ ប្រសិនបើអ្នកអភិវឌ្ឍន៍ភ្លេចធ្វើអនាម័យការបញ្ចូលរបស់អ្នកប្រើប្រាស់ (បើកទ្វារទទួលការចាក់ SQL ឬបញ្ហាស្រដៀងគ្នា) AI អាចរួមបញ្ចូលវាតាមលំនាំដើម ឬព្រមានពួកគេ។ ឧបករណ៍សរសេរកូដ AI មួយចំនួនឥឡូវនេះកំពុងត្រូវបានសម្រួលជាមួយនឹងទិន្នន័យដែលផ្តោតលើសុវត្ថិភាព ដើម្បីបម្រើគោលបំណងពិតប្រាកដនេះ – សំខាន់គឺ ការសរសេរកម្មវិធីគូ AI ជាមួយនឹងមនសិការសុវត្ថិភាព

ទោះយ៉ាងណាក៏ដោយ មានផ្នែកមួយត្រឡប់វិញ៖ AI ជំនាន់ថ្មីអាចណែនាំភាពងាយរងគ្រោះបានយ៉ាងងាយស្រួល ប្រសិនបើមិនមានការគ្រប់គ្រងត្រឹមត្រូវ។ ដូចដែលអ្នកជំនាញផ្នែកសន្តិសុខ Sophos លោក Ben Verschaeren បានកត់សម្គាល់ ការប្រើ AI ជំនាន់ថ្មីសម្រាប់ការសរសេរកូដគឺ "ល្អសម្រាប់លេខកូដដែលអាចផ្ទៀងផ្ទាត់បានខ្លី ប៉ុន្តែមានគ្រោះថ្នាក់នៅពេលដែលលេខកូដដែលមិនធីកត្រូវបានបញ្ចូល" ទៅក្នុងប្រព័ន្ធផលិតកម្ម។ ហានិភ័យគឺថា AI អាចបង្កើតកូដត្រឹមត្រូវតាមឡូជីខលដែលមិនមានសុវត្ថិភាពនៅក្នុងវិធីដែលមិនមែនជាអ្នកជំនាញអាចមិនកត់សម្គាល់។ លើសពីនេះទៅទៀត តួអង្គព្យាបាទអាចជះឥទ្ធិពលដោយចេតនាលើគំរូ AI សាធារណៈដោយដាក់ពួកវាជាមួយនឹងគំរូកូដដែលងាយរងគ្រោះ (ទម្រង់នៃការបំពុលទិន្នន័យ) ដូច្នេះ AI ណែនាំកូដមិនមានសុវត្ថិភាព។ អ្នកអភិវឌ្ឍន៍ភាគច្រើនមិនមែនជាអ្នកជំនាញផ្នែកសុវត្ថិភាពទេ ដូច្នេះប្រសិនបើ AI ណែនាំដំណោះស្រាយដ៏ងាយស្រួល ពួកគេអាចប្រើវាដោយងងឹតងងុល ដោយមិនដឹងថាវាមានគុណវិបត្តិ ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] )។ ការព្រួយបារម្ភនេះគឺពិតប្រាកដ - តាមពិតមានបញ្ជី OWASP Top 10 ឥឡូវនេះសម្រាប់ LLMs (គំរូភាសាធំ) ដែលបង្ហាញពីហានិភ័យទូទៅដូចនេះក្នុងការប្រើប្រាស់ AI សម្រាប់ការសរសេរកូដ។

ដើម្បីទប់ទល់នឹងបញ្ហាទាំងនេះ អ្នកជំនាញណែនាំឱ្យ "ប្រយុទ្ធប្រឆាំងនឹង AI ជំនាន់ថ្មីជាមួយ AI ជំនាន់" នៅក្នុងអាណាចក្រសរសេរកូដ។ នៅក្នុងការអនុវត្ត នោះមានន័យថាការប្រើប្រាស់ AI ដើម្បី ពិនិត្យ និងសាកល្បងកូដ ដែល AI (ឬមនុស្ស) ផ្សេងទៀតបានសរសេរ។ AI អាចស្កេនតាមរយៈកូដថ្មី ដំណើរការលឿនជាងអ្នកត្រួតពិនិត្យកូដមនុស្ស និងដាក់ទង់ភាពងាយរងគ្រោះដែលអាចកើតមាន ឬបញ្ហាតក្កវិជ្ជា។ យើងឃើញឧបករណ៍ដែលកំពុងលេចឡើងរួចហើយដែលរួមបញ្ចូលទៅក្នុងវដ្តនៃការអភិវឌ្ឍន៍កម្មវិធី៖ កូដត្រូវបានសរសេរ (ប្រហែលជាមានជំនួយ AI) បន្ទាប់មកគំរូទូទៅដែលត្រូវបានបណ្តុះបណ្តាលលើគោលការណ៍កូដសុវត្ថិភាពពិនិត្យមើលវា ហើយបង្កើតរបាយការណ៍អំពីកង្វល់ណាមួយ (និយាយ ការប្រើប្រាស់មុខងារដែលបានបដិសេធ បាត់ការត្រួតពិនិត្យការផ្ទៀងផ្ទាត់។ ល។ )។ ការស្រាវជ្រាវរបស់ NVIDIA ដែលបានលើកឡើងមុននេះ ដែលសម្រេចបានការរកឃើញភាពងាយរងគ្រោះ 4× លឿនជាងមុននៅក្នុងកូដ គឺជាឧទាហរណ៍នៃការប្រើប្រាស់ AI សម្រាប់ការវិភាគកូដសុវត្ថិភាព ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] )។

លើសពីនេះ AI ជំនាន់មុនអាចជួយ បង្កើតការកំណត់រចនាសម្ព័ន្ធ និងស្គ្រីបដែលមានសុវត្ថិភាព ។ ឧទាហរណ៍ ប្រសិនបើក្រុមហ៊ុនត្រូវដាក់ពង្រាយហេដ្ឋារចនាសម្ព័ន្ធពពកដែលមានសុវត្ថិភាព វិស្វករអាចស្នើសុំ AI ដើម្បីបង្កើតស្គ្រីបកំណត់រចនាសម្ព័ន្ធ (រចនាសម្ព័ន្ធជាកូដ) ដោយមានការគ្រប់គ្រងសុវត្ថិភាព (ដូចជាការបែងចែកបណ្តាញត្រឹមត្រូវ តួនាទី IAM សិទ្ធិតិចបំផុត) ត្រូវបានបង្កើតឡើង។ AI ដែលបានទទួលការបណ្តុះបណ្តាលលើការកំណត់រចនាសម្ព័ន្ធរាប់ពាន់បែបនេះ វិស្វករអាចបង្កើតការសម្រួលជាមូលដ្ឋាន។ វាបង្កើនល្បឿននៃការដំឡើងប្រព័ន្ធសុវត្ថិភាព និងកាត់បន្ថយកំហុសក្នុងការកំណត់រចនាសម្ព័ន្ធមិនត្រឹមត្រូវ ដែលជាប្រភពទូទៅនៃឧប្បត្តិហេតុសុវត្ថិភាពលើពពក។

អង្គការមួយចំនួនក៏កំពុងប្រើប្រាស់ AI ជំនាន់ថ្មីផងដែរ ដើម្បីរក្សាមូលដ្ឋានចំណេះដឹងនៃគំរូកូដសុវត្ថិភាព។ ប្រសិនបើអ្នកអភិវឌ្ឍន៍មិនប្រាកដពីរបៀបអនុវត្តមុខងារជាក់លាក់ណាមួយដោយសុវត្ថិភាព ពួកគេអាចសាកសួរ AI ខាងក្នុងដែលបានសិក្សាពីគម្រោងកន្លងមករបស់ក្រុមហ៊ុន និងគោលការណ៍ណែនាំសុវត្ថិភាព។ AI អាចនឹងត្រលប់មកវិញនូវវិធីសាស្រ្តដែលបានណែនាំ ឬសូម្បីតែព័ត៌មានខ្លីៗនៃកូដដែលស្របតាមតម្រូវការមុខងារ និងស្តង់ដារសុវត្ថិភាពរបស់ក្រុមហ៊ុន។ វិធីសាស្រ្តនេះត្រូវបានប្រើប្រាស់ដោយឧបករណ៍ដូចជា Secureframe's Questionnaire Automation ដែលទាញចម្លើយពីគោលនយោបាយរបស់ក្រុមហ៊ុន និងដំណោះស្រាយកន្លងមក ដើម្បីធានាបាននូវការឆ្លើយតបដែលស្រប និងត្រឹមត្រូវ (បង្កើតឯកសារសុវត្ថិភាពជាចម្បង) ( តើ AI ជំនាន់ថ្មីអាចប្រើក្នុងសុវត្ថិភាពតាមអ៊ីនធឺណិតបានយ៉ាងដូចម្តេច? 10 Real-World Examples ) ។ គំនិតបកប្រែទៅជាការសរសេរកូដ៖ AI ដែល "ចងចាំ" ពីរបៀបដែលអ្នកបានអនុវត្តអ្វីមួយដោយសុវត្ថិភាពពីមុន ហើយណែនាំអ្នកឱ្យធ្វើវាតាមរបៀបនោះម្តងទៀត។

សរុបមក AI ជំនាន់ថ្មីកំពុងជះឥទ្ធិពលលើការអភិវឌ្ឍន៍កម្មវិធី ដោយ ធ្វើឱ្យជំនួយការសរសេរកូដដែលមានសុវត្ថិភាពអាចចូលប្រើបានកាន់តែច្រើន ។ ឧស្សាហកម្មដែលអភិវឌ្ឍកម្មវិធីផ្ទាល់ខ្លួនជាច្រើន ដូចជា បច្ចេកវិទ្យា ហិរញ្ញវត្ថុ ការពារជាតិជាដើម។ – ទទួលបានអត្ថប្រយោជន៍ពីការមាន AI copilots ដែលមិនត្រឹមតែបង្កើនល្បឿនការសរសេរកូដប៉ុណ្ណោះទេ ប៉ុន្តែដើរតួជាអ្នកត្រួតពិនិត្យសុវត្ថិភាពដែលមិនធ្លាប់មាន។ នៅពេលដែលត្រូវបានគ្រប់គ្រងយ៉ាងត្រឹមត្រូវ ឧបករណ៍ AI ទាំងនេះអាចកាត់បន្ថយការដាក់ឱ្យប្រើប្រាស់នូវភាពងាយរងគ្រោះថ្មី និងជួយក្រុមអភិវឌ្ឍន៍ឱ្យប្រកាន់ខ្ជាប់នូវការអនុវត្តល្អបំផុត ទោះបីជាក្រុមមិនមានអ្នកជំនាញផ្នែកសុវត្ថិភាពចូលរួមគ្រប់ជំហានក៏ដោយ។ លទ្ធផល​គឺ​កម្មវិធី​ដែល​កាន់​តែ​រឹងមាំ​ប្រឆាំង​នឹង​ការ​វាយ​ប្រហារ​ពី​ថ្ងៃ​ដំបូង។

ការគាំទ្រការឆ្លើយតបឧប្បត្តិហេតុ

នៅពេលដែលឧបទ្ទវហេតុសុវត្ថិភាពតាមអ៊ីនធឺណិតកើតឡើង – មិនថាជាការផ្ទុះមេរោគ ការរំលោភបំពានទិន្នន័យ ឬការដាច់ប្រព័ន្ធពីការវាយប្រហារ – ពេលវេលាគឺសំខាន់ណាស់។ Generative AI កំពុងត្រូវបានប្រើប្រាស់កាន់តែខ្លាំងឡើង ដើម្បី គាំទ្រដល់ក្រុមឆ្លើយតបឧបទ្ទវហេតុ (IR) ក្នុងការទប់ស្កាត់ និងដោះស្រាយឧប្បត្តិហេតុកាន់តែលឿន និងមានព័ត៌មានបន្ថែមនៅក្នុងដៃ។ គំនិតនេះគឺថា AI អាចផ្តល់បន្ទុកផ្នែកស៊ើបអង្កេត និងឯកសារមួយចំនួនក្នុងអំឡុងពេលឧប្បត្តិហេតុមួយ ហើយថែមទាំងផ្តល់យោបល់ ឬធ្វើឱ្យសកម្មភាពឆ្លើយតបមួយចំនួនដោយស្វ័យប្រវត្តិ។

តួនាទីសំខាន់មួយនៃ AI នៅក្នុង IR គឺ ការវិភាគ និងសង្ខេបឧប្បត្តិហេតុក្នុងពេលវេលាជាក់ស្តែង ។ នៅកណ្តាលនៃឧប្បត្តិហេតុ អ្នកឆ្លើយតបប្រហែលជាត្រូវការចម្លើយចំពោះសំណួរដូចជា "តើអ្នកវាយប្រហារចូលដោយរបៀបណា?" " តើប្រព័ន្ធណាខ្លះដែលរងផលប៉ះពាល់?" និង "តើទិន្នន័យអ្វីខ្លះអាចត្រូវបានសម្របសម្រួល?" . Generative AI អាចវិភាគកំណត់ហេតុ ការដាស់តឿន និងទិន្នន័យកោសល្យវិច្ច័យពីប្រព័ន្ធដែលរងផលប៉ះពាល់ ហើយផ្តល់ការយល់ដឹងយ៉ាងរហ័ស។ ឧទាហរណ៍ Microsoft Security Copilot អនុញ្ញាតឱ្យអ្នកឆ្លើយតបឧប្បត្តិហេតុផ្តល់ព័ត៌មានជាបំណែកនៃភស្តុតាងផ្សេងៗ (ឯកសារ URLs កំណត់ហេតុព្រឹត្តិការណ៍) ហើយស្នើសុំការកំណត់ពេលវេលា ឬសេចក្តីសង្ខេប ( Microsoft Security Copilot គឺជាជំនួយការ AI GPT-4 ថ្មីសម្រាប់សន្តិសុខអ៊ីនធឺណិត | The Verge ) ។ AI អាចនឹងឆ្លើយតបជាមួយ៖ "ការបំពានទំនងជាចាប់ផ្តើមជាមួយនឹងអ៊ីមែលបន្លំទៅកាន់អ្នកប្រើប្រាស់ JohnDoe នៅម៉ោង 10:53 GMT ដែលមានមេរោគ X។ នៅពេលដែលត្រូវបានប្រតិបត្តិ មេរោគបានបង្កើត backdoor ដែលត្រូវបានប្រើពីរថ្ងៃក្រោយមក ដើម្បីផ្លាស់ទីនៅពេលក្រោយទៅកាន់ម៉ាស៊ីនមេហិរញ្ញវត្ថុ ដែលវាប្រមូលទិន្នន័យ។" ការមានរូបភាពដែលស៊ីសង្វាក់គ្នានេះក្នុងរយៈពេលប៉ុន្មាននាទីជាជាងម៉ោងអាចឱ្យក្រុមធ្វើការសម្រេចចិត្តដែលមានព័ត៌មាន (ដូចជាប្រព័ន្ធណាដែលត្រូវដាក់ឱ្យនៅដាច់ដោយឡែក) លឿនជាង។

Generative AI ក៏អាច ណែនាំសកម្មភាពទប់ស្កាត់ និងដំណោះស្រាយ ។ ឧទាហរណ៍ ប្រសិនបើ endpoint ត្រូវបានឆ្លងមេរោគដោយ ransomware ឧបករណ៍ AI អាចបង្កើតស្គ្រីប ឬសំណុំនៃការណែនាំដើម្បីផ្តាច់ម៉ាស៊ីននោះ បិទគណនីជាក់លាក់ និងទប់ស្កាត់ IPs ព្យាបាទដែលគេស្គាល់នៅលើ firewall ដែលជាការប្រតិបត្តិសៀវភៅលេង។ Palo Alto Networks កត់សម្គាល់ថា AI ជំនាន់ថ្មីមានសមត្ថភាពក្នុង ការ "បង្កើតសកម្មភាព ឬស្គ្រីបសមស្របដោយផ្អែកលើធម្មជាតិនៃឧប្បត្តិហេតុ" ដោយធ្វើស្វ័យប្រវត្តិកម្មជំហានដំបូងនៃការឆ្លើយតប ( តើអ្វីទៅជា Generative AI in Cybersecurity? - Palo Alto Networks )។ នៅក្នុងសេណារីយ៉ូដែលក្រុមសន្តិសុខត្រូវបានគ្របដណ្ដប់ (និយាយថាការវាយប្រហាររីករាលដាលនៅទូទាំងឧបករណ៍រាប់រយ) AI ថែមទាំងអាចប្រតិបត្តិដោយផ្ទាល់នូវសកម្មភាពទាំងនេះមួយចំនួននៅក្រោមលក្ខខណ្ឌដែលបានអនុម័តជាមុន ដោយដើរតួដូចជាអ្នកឆ្លើយតបវ័យក្មេងដែលធ្វើការដោយមិនចេះនឿយហត់។ ជាឧទាហរណ៍ ភ្នាក់ងារ AI អាចកំណត់ឡើងវិញដោយស្វ័យប្រវត្តិនូវព័ត៌មានសម្ងាត់ដែលខ្លួនយល់ថាត្រូវបានសម្របសម្រួល ឬម៉ាស៊ីនដាក់ឱ្យនៅដាច់ពីគេ ដែលបង្ហាញសកម្មភាពព្យាបាទដែលត្រូវនឹងទម្រង់នៃឧប្បត្តិហេតុ។

ក្នុងអំឡុងពេលឆ្លើយតបឧបទ្ទវហេតុ ការប្រាស្រ័យទាក់ទងគឺមានសារៈសំខាន់ - ទាំងនៅក្នុងក្រុម និងអ្នកពាក់ព័ន្ធ។ Generative AI អាចជួយបានដោយ ការព្រាងរបាយការណ៍បច្ចុប្បន្នភាពឧប្បត្តិហេតុ ឬព័ត៌មានសង្ខេបភ្លាមៗ ។ ជំនួសឱ្យវិស្វករបញ្ឈប់ការដោះស្រាយបញ្ហារបស់ពួកគេដើម្បីសរសេរបច្ចុប្បន្នភាពអ៊ីមែល ពួកគេអាចសួរ AI ថា "សង្ខេបអ្វីដែលបានកើតឡើងនៅក្នុងឧប្បត្តិហេតុនេះរហូតមកដល់ពេលនេះដើម្បីជូនដំណឹងដល់នាយកប្រតិបត្តិ" ។ AI ដោយបានបញ្ចូលទិន្នន័យឧបទ្ទវហេតុនោះ អាចបង្កើតសេចក្តីសង្ខេបសង្ខេបមួយថា "គិតត្រឹមម៉ោង 3 រសៀល អ្នកវាយប្រហារបានចូលប្រើគណនីអ្នកប្រើប្រាស់ 2 និងម៉ាស៊ីនមេ 5 ។ ទិន្នន័យដែលរងផលប៉ះពាល់រួមមានកំណត់ត្រាអតិថិជននៅក្នុងមូលដ្ឋានទិន្នន័យ X ។ វិធានការផ្ទុក៖ ការចូលប្រើ VPN សម្រាប់គណនីដែលត្រូវបានសម្របសម្រួលត្រូវបានដកហូត ហើយម៉ាស៊ីនមេត្រូវបានញែកដាច់ពីគេ។ ជំហានបន្ទាប់៖ ការស្កេនរកយន្តការបន្ត។" បន្ទាប់មក អ្នកឆ្លើយតបអាចផ្ទៀងផ្ទាត់ ឬកែប្រែវាយ៉ាងឆាប់រហ័ស ហើយផ្ញើវាចេញ ដោយធានាថាអ្នកពាក់ព័ន្ធត្រូវបានរក្សាទុកនៅក្នុងរង្វិលជុំជាមួយនឹងព័ត៌មានត្រឹមត្រូវ និងទាន់ពេល។

បន្ទាប់​ពី​ធូលី​បាន​រលាយ​ហើយ ជាទូទៅ​មាន​របាយការណ៍​ឧប្បត្តិហេតុ​លម្អិត​ដើម្បី​រៀបចំ និង​មេរៀន​ដែល​បាន​រៀន​ដើម្បី​ចងក្រង។ នេះគឺជាតំបន់មួយទៀតដែលជំនួយ AI ភ្លឺ។ វាអាចពិនិត្យមើលទិន្នន័យឧប្បត្តិហេតុទាំងអស់ និង បង្កើតរបាយការណ៍ក្រោយឧប្បត្តិហេតុ ដែលគ្របដណ្តប់មូលហេតុឫសគល់ កាលប្បវត្តិ ផលប៉ះពាល់ និងការណែនាំ។ ជាឧទាហរណ៍ IBM កំពុងរួមបញ្ចូល AI ទូទៅដើម្បីបង្កើត "សេចក្តីសង្ខេបសាមញ្ញនៃករណីសុវត្ថិភាព និងឧប្បត្តិហេតុដែលអាចចែករំលែកជាមួយភាគីពាក់ព័ន្ធ" នៅពេលចុចប៊ូតុងមួយ ( តើ AI ជំនាន់ថ្មីអាចត្រូវប្រើក្នុងសុវត្ថិភាពតាមអ៊ីនធឺណិតបានដោយរបៀបណា? 10 Real-World Examples ) ។ តាមរយៈការសម្រួលការរាយការណ៍ក្រោយសកម្មភាព អង្គការអាចអនុវត្តការកែលម្អបានលឿនជាងមុន ហើយថែមទាំងមានឯកសារកាន់តែប្រសើរឡើងសម្រាប់គោលបំណងអនុលោមតាមច្បាប់ផងដែរ។

ការប្រើប្រាស់ការទន្ទឹងរង់ចាំប្រកបដោយភាពច្នៃប្រឌិតមួយគឺ ការក្លែងធ្វើឧប្បត្តិហេតុដែលជំរុញដោយ AI ។ ស្រដៀងគ្នាទៅនឹងរបៀបដែលមនុស្សម្នាក់អាចដំណើរការសមយុទ្ធពន្លត់អគ្គីភ័យ ក្រុមហ៊ុនមួយចំនួនកំពុងប្រើ AI ទូទៅដើម្បីដំណើរការតាមរយៈសេណារីយ៉ូឧប្បត្តិហេតុ "អ្វីប្រសិនបើ" ។ AI អាចនឹងក្លែងធ្វើពីរបៀបដែល ransomware អាចរីករាលដាលដែលផ្តល់អោយនូវប្លង់បណ្តាញ ឬរបៀបដែលអ្នកខាងក្នុងអាចទាញយកទិន្នន័យ ហើយបន្ទាប់មកដាក់ពិន្ទុពីប្រសិទ្ធភាពនៃផែនការឆ្លើយតបបច្ចុប្បន្ន។ នេះជួយក្រុមរៀបចំ និងកែលម្អសៀវភៅលេង មុនពេលឧបទ្ទវហេតុពិតប្រាកដកើតឡើង។ វាដូចជាមានអ្នកប្រឹក្សាឆ្លើយតបឧបទ្ទវហេតុដែលប្រសើរឡើង ដែលសាកល្បងការត្រៀមខ្លួនរបស់អ្នកជានិច្ច។

នៅក្នុងឧស្សាហកម្មដែលមានភាគហ៊ុនខ្ពស់ដូចជាហិរញ្ញវត្ថុ ឬការថែទាំសុខភាព ដែលពេលវេលារងចាំ ឬការបាត់បង់ទិន្នន័យពីឧប្បត្តិហេតុគឺមានតម្លៃថ្លៃ ជាពិសេសសមត្ថភាព IR ដែលជំរុញដោយ AI ទាំងនេះមានភាពទាក់ទាញខ្លាំង។ មន្ទីរពេទ្យដែលជួបប្រទះឧបទ្ទវហេតុតាមអ៊ីនធឺណិតមិនអាចមានលទ្ធភាពនៃការដាច់ប្រព័ន្ធយូរទេ - AI ដែលជួយក្នុងការទប់ស្កាត់បានយ៉ាងឆាប់រហ័សអាចជាការសង្គ្រោះជីវិត។ ស្រដៀងគ្នានេះដែរ ស្ថាប័នហិរញ្ញវត្ថុអាចប្រើ AI ដើម្បីដោះស្រាយការចាប់ផ្តើមដំបូងនៃការលួចបន្លំដែលសង្ស័យថាមានការលួចបន្លំនៅម៉ោង 3 ព្រឹក ដូច្នេះនៅពេលដែលមនុស្សកំពុងហៅទូរសព្ទនៅលើអ៊ីនធឺណិត ការងារមូលដ្ឋានជាច្រើន (ការបិទគណនីដែលរងផលប៉ះពាល់ ប្រតិបត្តិការទប់ស្កាត់។ ល។ ) រួចរាល់ហើយ។ តាមរយៈ ការបង្កើនក្រុមឆ្លើយតបឧបទ្ទវហេតុជាមួយនឹង AI ទូទៅ អង្គការនានាអាចកាត់បន្ថយពេលវេលាឆ្លើយតបយ៉ាងសំខាន់ និងធ្វើអោយប្រសើរឡើងនូវភាពហ្មត់ចត់នៃការគ្រប់គ្រងរបស់ពួកគេ ទីបំផុតកាត់បន្ថយការខូចខាតពីឧប្បត្តិហេតុតាមអ៊ីនធឺណិត។

ការវិភាគអាកប្បកិរិយា និងការរកឃើញភាពមិនប្រក្រតី

ការវាយប្រហារតាមអ៊ីនធឺណិតជាច្រើនអាចចាប់បានដោយការកត់សម្គាល់នៅពេលដែលមានអ្វីមួយខុសពីឥរិយាបថ "ធម្មតា" ថាតើវាជាគណនីអ្នកប្រើប្រាស់ដែលទាញយកទិន្នន័យចំនួនមិនធម្មតា ឬឧបករណ៍បណ្តាញទំនាក់ទំនងភ្លាមៗជាមួយម៉ាស៊ីនដែលមិនធ្លាប់ស្គាល់។ Generative AI ផ្តល់នូវបច្ចេកទេសកម្រិតខ្ពស់សម្រាប់ ការវិភាគអាកប្បកិរិយា និងការរកឃើញភាពមិនប្រក្រតី សិក្សាពីគំរូធម្មតារបស់អ្នកប្រើប្រាស់ និងប្រព័ន្ធ ហើយបន្ទាប់មកដាក់ទង់នៅពេលដែលមានអ្វីមួយមើលមិនឃើញ។

ការរកឃើញភាពខុសប្រក្រតីបែបប្រពៃណី ជារឿយៗប្រើកម្រិតស្ថិតិ ឬការរៀនម៉ាស៊ីនសាមញ្ញលើរង្វាស់ជាក់លាក់ (ការកើនឡើងនៃការប្រើប្រាស់ CPU ការចូលនៅម៉ោងសេស។ល។)។ AI ជំនាន់​ថ្មី​អាច​យក​ចំណុច​នេះ​បន្ថែម​ទៀត​ដោយ​ការ​បង្កើត​ទម្រង់​អាកប្បកិរិយា​ដែល​មាន​លក្ខណៈ​ប្លែក​ជាង​មុន។ ជាឧទាហរណ៍ គំរូ AI អាចបញ្ចូលការចូល ទម្រង់ការចូលប្រើឯកសារ និងទម្លាប់អ៊ីមែលរបស់និយោជិតតាមពេលវេលា និងបង្កើតការយល់ដឹងច្រើនផ្នែកអំពី "ធម្មតា" របស់អ្នកប្រើប្រាស់នោះ។ ប្រសិនបើគណនីនោះនៅពេលក្រោយធ្វើអ្វីមួយយ៉ាងធ្ងន់ធ្ងរនៅខាងក្រៅបទដ្ឋានរបស់វា (ដូចជាការចូលពីប្រទេសថ្មី និងការចូលប្រើប្រាស់ឯកសារធនធានមនុស្សនៅពាក់កណ្តាលអធ្រាត្រ) AI នឹងរកឃើញគម្លាតមិនត្រឹមតែនៅលើម៉ែត្រមួយប៉ុណ្ណោះទេ ប៉ុន្តែជាគំរូអាកប្បកិរិយាទាំងមូលដែលមិនសមនឹងទម្រង់របស់អ្នកប្រើប្រាស់។ នៅក្នុងពាក្យបច្ចេកទេស គំរូទូទៅ (ដូចជា autoencoders ឬ sequence model) អាចយកគំរូតាមអ្វីដែល "ធម្មតា" មើលទៅ ហើយបន្ទាប់មកបង្កើតជួរនៃអាកប្បកិរិយាដែលរំពឹងទុក។ នៅពេលដែលការពិតធ្លាក់នៅខាងក្រៅជួរនោះ វាត្រូវបានសម្គាល់ថាជាភាពមិនប្រក្រតី ( តើអ្វីទៅជា AI ជំនាន់ថ្មីនៅក្នុង Cybersecurity? - Palo Alto Networks )។

ការអនុវត្តជាក់ស្តែងមួយគឺនៅក្នុង ការត្រួតពិនិត្យចរាចរណ៍បណ្តាញ ។ យោងតាមការស្ទង់មតិឆ្នាំ 2024 អង្គការអាមេរិកចំនួន 54% បានលើកឡើងពីការតាមដានចរាចរណ៍បណ្តាញជាករណីប្រើប្រាស់កំពូលសម្រាប់ AI ក្នុងសុវត្ថិភាពអ៊ីនធឺណិត ( អាមេរិកខាងជើង៖ ករណីប្រើប្រាស់ AI កំពូលនៅក្នុងសន្តិសុខអ៊ីនធឺណិតទូទាំងពិភពលោកឆ្នាំ 2024 )។ Generative AI អាចសិក្សាពីគំរូទំនាក់ទំនងធម្មតានៃបណ្តាញរបស់សហគ្រាស ដែលជាធម្មតាម៉ាស៊ីនមេនិយាយគ្នា បរិមាណទិន្នន័យផ្លាស់ទីក្នុងអំឡុងពេលម៉ោងធ្វើការធៀបនឹង ពេលយប់ ។ ដោយសារតែ AI មិនត្រឹមតែប្រើច្បាប់ឋិតិវន្តប៉ុណ្ណោះទេ ប៉ុន្តែជាគំរូវិវត្តនៃឥរិយាបទបណ្តាញ វាអាចចាប់បាននូវភាពខុសប្រក្រតីដែលច្បាប់ឋិតិវន្ត (ដូចជា “ការជូនដំណឹងប្រសិនបើទិន្នន័យ > X MB”) អាចខកខាន ឬដាក់ទង់ខុស។ លក្ខណៈនៃការសម្របខ្លួននេះគឺជាអ្វីដែលធ្វើឱ្យការរកឃើញភាពមិនប្រក្រតីដែលជំរុញដោយ AI មានឥទ្ធិពលនៅក្នុងបរិស្ថានដូចជាបណ្តាញប្រតិបត្តិការធនាគារ ហេដ្ឋារចនាសម្ព័ន្ធពពក ឬកងនាវាឧបករណ៍ IoT ដែលការកំណត់ច្បាប់ថេរសម្រាប់ធម្មតាធៀបនឹងភាពមិនប្រក្រតីគឺស្មុគស្មាញបំផុត។

Generative AI ក៏កំពុងជួយជាមួយនឹង ការវិភាគអាកប្បកិរិយារបស់អ្នកប្រើប្រាស់ (UBA) ដែលជាគន្លឹះក្នុងការស្វែងរកការគំរាមកំហែងខាងក្នុង ឬគណនីដែលត្រូវបានសម្របសម្រួល។ តាមរយៈការបង្កើតខ្សែបន្ទាត់មូលដ្ឋានរបស់អ្នកប្រើប្រាស់ ឬអង្គភាពនីមួយៗ AI អាចរកឃើញអ្វីៗដូចជាការប្រើប្រាស់មិនត្រឹមត្រូវ។ ឧទាហរណ៍ ប្រសិនបើ Bob ពីគណនេយ្យភ្លាមៗចាប់ផ្តើមសួរទិន្នន័យអតិថិជន (អ្វីមួយដែលគាត់មិនធ្លាប់ធ្វើពីមុនមក) គំរូ AI សម្រាប់អាកប្បកិរិយារបស់ Bob នឹងសម្គាល់ថានេះមិនធម្មតា។ វាប្រហែលជាមិនមែនជាមេរោគទេ វាអាចជាករណីនៃការលួច និងប្រើប្រាស់ដោយអ្នកវាយប្រហារ ឬ Bob ស៊ើបអង្កេតកន្លែងដែលគាត់មិនគួរ។ ទោះ​បី​ជា​យ៉ាង​ណា ក្រុម​សន្តិសុខ​ទទួល​បាន​ការ​ស៊ើប​អង្កេត។ ប្រព័ន្ធ UBA ដែលជំរុញដោយ AI បែបនេះមាននៅក្នុងផលិតផលសុវត្ថិភាពផ្សេងៗ ហើយបច្ចេកទេសបង្កើតគំរូកំពុងជំរុញភាពត្រឹមត្រូវរបស់ពួកគេឱ្យកាន់តែខ្ពស់ និងកាត់បន្ថយការជូនដំណឹងមិនពិតដោយពិចារណាលើបរិបទ (ប្រហែលជាលោក Bob ស្ថិតនៅក្នុងគម្រោងពិសេស។

នៅក្នុងអាណាចក្រនៃការគ្រប់គ្រងអត្តសញ្ញាណ និងការចូលប្រើ ការរកឃើញក្លែងក្លាយ គឺជាតម្រូវការដែលកំពុងកើនឡើង - AI ជំនាន់អាចបង្កើតសំឡេងសំយោគ និងវីដេអូដែលបន្លំសុវត្ថិភាពជីវមាត្រ។ គួរឱ្យចាប់អារម្មណ៍ AI ជំនាន់មុនក៏អាចជួយរកឃើញការក្លែងបន្លំដ៏ជ្រៅទាំងនេះផងដែរ ដោយការវិភាគវត្ថុបុរាណតូចៗនៅក្នុងអូឌីយ៉ូ ឬវីដេអូដែលពិបាកសម្រាប់មនុស្សក្នុងការកត់សម្គាល់។ យើងបានឃើញឧទាហរណ៍មួយជាមួយ Accenture ដែលប្រើ AI ជំនាន់ដើម ដើម្បីក្លែងធ្វើការបញ្ចេញទឹកមុខ និងលក្ខខណ្ឌរាប់មិនអស់ ដើម្បី បណ្តុះបណ្តាល ប្រព័ន្ធជីវមាត្ររបស់ពួកគេ ដើម្បីសម្គាល់អ្នកប្រើប្រាស់ពិតប្រាកដពី AI ដែលបង្កើតដោយ AI ។ ក្នុងរយៈពេលជាង 5 ឆ្នាំ វិធីសាស្រ្តនេះបានជួយ Accenture លុបបំបាត់ពាក្យសម្ងាត់សម្រាប់ 90% នៃប្រព័ន្ធរបស់វា (ការផ្លាស់ប្តូរទៅជីវមាត្រ និងកត្តាផ្សេងទៀត) និងកាត់បន្ថយការវាយប្រហារចំនួន 60% ( 6 ករណីប្រើប្រាស់សម្រាប់ Generative AI នៅក្នុង Cybersecurity [+ Examples] )។ ជាសំខាន់ ពួកគេបានប្រើប្រាស់ AI ជំនាន់ថ្មី ដើម្បីពង្រឹងការផ្ទៀងផ្ទាត់ជីវមាត្រ ដែលធ្វើឱ្យវាមានភាពធន់នឹងការវាយប្រហារតាមជំនាន់ (រូបភាពដ៏អស្ចារ្យនៃ AI ប្រយុទ្ធប្រឆាំងនឹង AI)។ ប្រភេទនៃគំរូអាកប្បកិរិយានេះ - ក្នុងករណីនេះការទទួលស្គាល់ភាពខុសគ្នារវាងមុខមនុស្សរស់នៅទល់នឹង AI ដែលសំយោគ - គឺមានសារៈសំខាន់ណាស់ ដោយសារយើងពឹងផ្អែកលើ AI កាន់តែច្រើនក្នុងការផ្ទៀងផ្ទាត់។

ការរកឃើញភាពមិនប្រក្រតីដែលដំណើរការដោយ AI ជំនាន់ថ្មីគឺអាចអនុវត្តបាននៅទូទាំងឧស្សាហកម្មនានា៖ ក្នុងការថែទាំសុខភាព ការត្រួតពិនិត្យឥរិយាបថឧបករណ៍វេជ្ជសាស្ត្រសម្រាប់សញ្ញានៃការលួចចូល។ នៅក្នុងហិរញ្ញវត្ថុ ការមើលប្រព័ន្ធជួញដូរសម្រាប់លំនាំមិនទៀងទាត់ដែលអាចបង្ហាញពីការក្លែងបន្លំ ឬឧបាយកលក្បួនដោះស្រាយ។ នៅក្នុងថាមពល/ឧបករណ៍ប្រើប្រាស់ សង្កេតមើលសញ្ញាប្រព័ន្ធគ្រប់គ្រងសម្រាប់សញ្ញានៃការឈ្លានពាន។ ការរួមបញ្ចូលគ្នានៃ ទទឹង (ការក្រឡេកមើលគ្រប់ទិដ្ឋភាពនៃឥរិយាបទ) និង ជម្រៅ (ការយល់ដឹងអំពីគំរូស្មុគ្រស្មាញ) ដែល AI ផ្តល់ឲ្យធ្វើឱ្យវាក្លាយជាឧបករណ៍ដ៏មានសក្តានុពលមួយសម្រាប់រកមើលសូចនាករម្ជុលក្នុងគំនរសំរាមនៃឧប្បត្តិហេតុតាមអ៊ីនធឺណិត។ នៅពេលដែលការគំរាមកំហែងក្លាយជាអ្នកលួចលាក់ លាក់ខ្លួនក្នុងចំណោមប្រតិបត្តិការធម្មតា សមត្ថភាពនេះដើម្បីកំណត់លក្ខណៈ "ធម្មតា" យ៉ាងជាក់លាក់ ហើយស្រែកនៅពេលដែលមានអ្វីខុសឆ្គងក្លាយជាសំខាន់។ ដូច្នេះ AI ជំនាន់ថ្មីដើរតួជាអ្នកបញ្ជូនដោយមិនចេះនឿយហត់ តែងតែសិក្សា និងធ្វើបច្ចុប្បន្នភាពនិយមន័យនៃភាពធម្មតារបស់វា ដើម្បីរក្សាល្បឿនជាមួយនឹងការផ្លាស់ប្តូរនៅក្នុងបរិស្ថាន និងជូនដំណឹងដល់ក្រុមសន្តិសុខចំពោះភាពមិនប្រក្រតីដែលសមនឹងការត្រួតពិនិត្យកាន់តែជិត។

ឱកាស និងអត្ថប្រយោជន៍នៃ AI បង្កើតនៅក្នុង Cybersecurity

ឱកាស និងអត្ថប្រយោជន៍ ជាច្រើន សម្រាប់អង្គការដែលមានបំណងទទួលយកឧបករណ៍ទាំងនេះ។ ខាងក្រោមនេះ យើងសង្ខេបពីអត្ថប្រយោជន៍សំខាន់ៗដែលធ្វើឱ្យ AI បង្កើតជាការបន្ថែមដ៏គួរឱ្យទាក់ទាញចំពោះកម្មវិធីសុវត្ថិភាពអ៊ីនធឺណិត៖

  • ការរកឃើញ និងការឆ្លើយតបការគំរាមកំហែងលឿនជាងមុន៖ ប្រព័ន្ធ AI ជំនាន់ថ្មីអាចវិភាគទិន្នន័យយ៉ាងច្រើនក្នុងពេលវេលាជាក់ស្តែង និងទទួលស្គាល់ការគំរាមកំហែងលឿនជាងការវិភាគរបស់មនុស្សដោយដៃ។ អត្ថប្រយោជន៍នៃល្បឿននេះមានន័យថាការរកឃើញការវាយប្រហារមុន និងការទប់ស្កាត់ឧប្បត្តិហេតុលឿនជាងមុន។ នៅក្នុងការអនុវត្ត ការត្រួតពិនិត្យសុវត្ថិភាពដែលជំរុញដោយ AI អាចចាប់បានការគំរាមកំហែងដែលនឹងចំណាយពេលយូរដើម្បីទាក់ទងគ្នារបស់មនុស្ស។ តាមរយៈការឆ្លើយតបទៅនឹងឧប្បត្តិហេតុភ្លាមៗ (ឬសូម្បីតែដំណើរការការឆ្លើយតបដំបូងដោយស្វ័យភាព) អង្គការអាចកាត់បន្ថយពេលវេលារបស់អ្នកវាយប្រហារនៅក្នុងបណ្តាញរបស់ពួកគេយ៉ាងខ្លាំង ដោយកាត់បន្ថយការខូចខាត។

  • ធ្វើឱ្យប្រសើរឡើងនូវភាពត្រឹមត្រូវ និងការគ្របដណ្តប់ការគំរាមកំហែង៖ ដោយសារតែពួកគេបន្តរៀនពីទិន្នន័យថ្មី គំរូទូទៅអាចសម្របខ្លួនទៅនឹងការវិវត្តនៃការគំរាមកំហែង និងចាប់សញ្ញាអាក្រក់នៃសកម្មភាពព្យាបាទ។ នេះនាំទៅរកភាពប្រសើរឡើងនៃភាពត្រឹមត្រូវនៃការរកឃើញ (អវិជ្ជមានមិនពិត និងវិជ្ជមានមិនពិតតិចជាង) បើប្រៀបធៀបទៅនឹងច្បាប់ឋិតិវន្ត។ ឧទាហរណ៍ AI ដែល​បាន​សិក្សា​ពី​ចំណុច​សំខាន់​នៃ​អ៊ីមែល​បន្លំ ឬ​ឥរិយាបថ​មេរោគ​អាច​កំណត់​អត្តសញ្ញាណ​បំរែបំរួល​ដែល​មិន​ធ្លាប់​ឃើញ​ពីមុនមក។ លទ្ធផលគឺការគ្របដណ្តប់កាន់តែទូលំទូលាយនៃប្រភេទគំរាមកំហែង – រួមទាំងការវាយប្រហារបែបប្រលោមលោក – ការពង្រឹងឥរិយាបថសុវត្ថិភាពទាំងមូល។ ក្រុមសន្តិសុខក៏ទទួលបានការយល់ដឹងយ៉ាងលម្អិតពីការវិភាគ AI (ឧ. ការពន្យល់អំពីឥរិយាបទមេរោគ) ដែលអាចឱ្យការការពារកាន់តែច្បាស់លាស់ និងគោលដៅ ( តើអ្វីទៅជា Generative AI in Cybersecurity? - Palo Alto Networks )។

  • ស្វ័យប្រវត្តិកម្មនៃកិច្ចការច្រំដែល៖ AI ជំនាន់ថ្មីពូកែក្នុងការធ្វើស្វ័យប្រវត្តិកម្មទម្លាប់ ភារកិច្ចសុវត្ថិភាពដែលពឹងផ្អែកលើកម្លាំងពលកម្ម - ពីការផ្សំតាមរយៈកំណត់ហេតុ និងការចងក្រងរបាយការណ៍ រហូតដល់ការសរសេរស្គ្រីបឆ្លើយតបឧប្បត្តិហេតុ។ ស្វ័យប្រវត្តិកម្មនេះ កាត់បន្ថយបន្ទុកលើអ្នកវិភាគរបស់មនុស្ស ដោយដោះលែងពួកគេឱ្យផ្តោតលើយុទ្ធសាស្ត្រកម្រិតខ្ពស់ និងការសម្រេចចិត្តដ៏ស្មុគស្មាញ ( What Is Generative AI in Cybersecurity? - Palo Alto Networks )។ កិច្ចការសំខាន់ៗ ប៉ុន្តែការងារសំខាន់ៗដូចជាការស្កេនភាពងាយរងគ្រោះ ការធ្វើសវនកម្មការកំណត់រចនាសម្ព័ន្ធ ការវិភាគសកម្មភាពអ្នកប្រើប្រាស់ និងការរាយការណ៍ការអនុលោមភាពអាចត្រូវបានគ្រប់គ្រង (ឬយ៉ាងហោចណាស់ត្រូវបានព្រាងជាមុន) ដោយ AI ។ តាមរយៈការដោះស្រាយកិច្ចការទាំងនេះក្នុងល្បឿនម៉ាស៊ីន AI មិនត្រឹមតែបង្កើនប្រសិទ្ធភាពប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងកាត់បន្ថយកំហុសរបស់មនុស្ស (កត្តាសំខាន់ក្នុងការបំពាន)។

  • Proactive Defense and Simulation: Generative AI អនុញ្ញាតឱ្យអង្គការផ្លាស់ប្តូរពីប្រតិកម្មទៅសន្តិសុខសកម្ម។ តាមរយៈបច្ចេកទេសដូចជាការក្លែងធ្វើការវាយប្រហារ ការបង្កើតទិន្នន័យសំយោគ និងការហ្វឹកហ្វឺនផ្អែកលើសេណារីយ៉ូ អ្នកការពារអាចគិតទុកជាមុន និងរៀបចំសម្រាប់ការគំរាមកំហែង មុនពេល ពួកគេក្លាយជាការពិតនៅក្នុងពិភពពិត។ ក្រុមសន្តិសុខអាចក្លែងធ្វើការវាយប្រហារតាមអ៊ីនធឺណិត (យុទ្ធនាការបន្លំ ការផ្ទុះមេរោគ DDoS ។ល។) នៅក្នុងបរិយាកាសសុវត្ថិភាព ដើម្បីសាកល្បងការឆ្លើយតបរបស់ពួកគេ និងស្វែងរកចំណុចខ្សោយណាមួយ។ ការហ្វឹកហ្វឺនជាបន្តបន្ទាប់នេះ ជារឿយៗមិនអាចធ្វើបានហ្មត់ចត់ដោយគ្រាន់តែការខិតខំប្រឹងប្រែងរបស់មនុស្ស រក្សាការការពារយ៉ាងមុតស្រួច និងទាន់សម័យ។ វាស្រដៀងទៅនឹង "ការហ្វឹកហាត់ភ្លើង" តាមអ៊ីនធឺណិត - AI អាចគំរាមកំហែងសម្មតិកម្មជាច្រើនទៅលើការការពាររបស់អ្នក ដូច្នេះអ្នកអាចអនុវត្ត និងកែលម្អបាន។

  • ការបង្កើនជំនាញមនុស្ស (AI ជាមេគុណកម្លាំង)៖ AI ជំនាន់ថ្មីដើរតួជាអ្នកវិភាគ ទីប្រឹក្សា និងជំនួយការដែលមិនចេះនឿយហត់មួយរូប។ វាអាចផ្តល់ឱ្យសមាជិកក្រុមដែលមិនសូវមានបទពិសោធន៍ជាមួយនឹងការណែនាំ និងអនុសាសន៍ដែលជាធម្មតាត្រូវបានរំពឹងទុកពីអ្នកជំនាញតាមរដូវកាល ធ្វើឱ្យ អ្នកជំនាញខាងប្រជាធិបតេយ្យ នៅទូទាំងក្រុម ( 6 Use Cases for Generative AI in Cybersecurity [+ Examples] ). នេះមានតម្លៃជាពិសេសដោយសារកង្វះទេពកោសល្យក្នុងសុវត្ថិភាពអ៊ីនធឺណិត - AI ជួយក្រុមតូចៗធ្វើកាន់តែច្រើនដោយតិចជាង។ ម៉្យាងវិញទៀត អ្នកវិភាគដែលមានបទពិសោធន៍ ទទួលបានអត្ថប្រយោជន៍ពី AI ក្នុងការដោះស្រាយការងារដ៏ក្រអឺតក្រទម និងការស្វែងយល់ពីការយល់ដឹងដែលមិនច្បាស់លាស់ ដែលបន្ទាប់មកពួកគេអាចផ្ទៀងផ្ទាត់ និងធ្វើសកម្មភាពបាន។ លទ្ធផល​ជារួម​គឺ​ក្រុម​សន្តិសុខ​ដែល​មាន​ផលិតភាព​និង​សមត្ថភាព​ច្រើន​ជាង​ដោយ​ AI ពង្រីក​ឥទ្ធិពល​របស់​សមាជិក​នីមួយៗ​ ( តើ​អាច​ប្រើ​ AI Generative AI ក្នុង​ Cybersecurity )។

  • ការគាំទ្រ និងការរាយការណ៍អំពីការសម្រេចចិត្តដែលប្រសើរឡើង៖ តាមរយៈការបកប្រែទិន្នន័យបច្ចេកទេសទៅជាការយល់ដឹងជាភាសាធម្មជាតិ AI ជំនាន់ថ្មីធ្វើអោយប្រសើរឡើងនូវទំនាក់ទំនង និងការសម្រេចចិត្ត។ អ្នកដឹកនាំផ្នែកសន្តិសុខទទួលបានភាពមើលឃើញកាន់តែច្បាស់ចំពោះបញ្ហាតាមរយៈសេចក្តីសង្ខេបដែលបង្កើតដោយ AI និងអាចធ្វើការសម្រេចចិត្តជាយុទ្ធសាស្រ្តដែលមានព័ត៌មានដោយមិនចាំបាច់ញែកទិន្នន័យឆៅ។ ទាក់ទង តាមមុខងារ (ទៅកាន់នាយកប្រតិបត្តិ មន្ត្រីអនុលោមភាព នេះមិនត្រឹមតែបង្កើតទំនុកចិត្ត និងការតម្រឹមលើបញ្ហាសន្តិសុខនៅកម្រិតភាពជាអ្នកដឹកនាំប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងជួយបង្ហាញអំពីភាពត្រឹមត្រូវនៃការវិនិយោគ និងការផ្លាស់ប្តូរដោយការបញ្ជាក់យ៉ាងច្បាស់ពីហានិភ័យ និងចន្លោះប្រហោងដែលបានរកឃើញដោយ AI ។

នៅក្នុងការរួមបញ្ចូលគ្នា អត្ថប្រយោជន៍ទាំងនេះមានន័យថា អង្គការដែលប្រើប្រាស់ AI ជំនាន់ថ្មីនៅក្នុងសន្តិសុខតាមអ៊ីនធឺណិតអាចសម្រេចបាននូវស្ថានភាពសុវត្ថិភាពកាន់តែរឹងមាំ ជាមួយនឹងតម្លៃប្រតិបត្តិការទាប។ ពួកគេអាចឆ្លើយតបទៅនឹងការគំរាមកំហែងដែលពីមុនមានច្រើនលើសលប់ គ្របដណ្តប់ចន្លោះប្រហោងដែលមិនមានការត្រួតពិនិត្យ និងកែលម្អជាបន្តបន្ទាប់តាមរយៈរង្វិលជុំមតិត្រឡប់ដែលជំរុញដោយ AI ។ ទីបំផុត AI ជំនាន់ថ្មីផ្តល់ឱកាសឱ្យឈានមុខគូប្រជែងដោយផ្គូផ្គង ល្បឿន មាត្រដ្ឋាន និងភាពទំនើប នៃការវាយប្រហារបែបទំនើប ជាមួយនឹងការការពារដ៏ទំនើបស្មើគ្នា។ ដូចដែលការស្ទង់មតិមួយបានរកឃើញថា ជាងពាក់កណ្តាលនៃអ្នកជំនួញ និងអ្នកដឹកនាំតាមអ៊ីនធឺណិតរំពឹងថានឹងរកឃើញការគំរាមកំហែងកាន់តែលឿន និងបង្កើនភាពត្រឹមត្រូវតាមរយៈការប្រើប្រាស់ AI ជំនាន់ ( [PDF] Global Cybersecurity Outlook 2025 | World Economic Forum ) ( Generative AI in Cybersecurity: A Comprehensive Review of LLM ... ) - សក្ខីកម្មនៃអត្ថប្រយោជន៍ទាំងនេះ។

ហានិភ័យ និង​បញ្ហា​ប្រឈម​នៃ​ការ​ប្រើប្រាស់ AI ជំនាន់​ថ្មី​ក្នុង​សុវត្ថិភាព​អ៊ីនធឺណិត

ខណៈពេលដែលឱកាសមានសារៈសំខាន់ វាមានសារៈសំខាន់ណាស់ក្នុងការចូលទៅជិត AI ជំនាន់ថ្មីនៅក្នុងសន្តិសុខតាមអ៊ីនធឺណិត ដោយបើកភ្នែកមើល ហានិភ័យ និងបញ្ហាប្រឈមនានា ដែលពាក់ព័ន្ធ។ ការជឿជាក់លើ AI ដោយខ្វាក់ភ្នែក ឬការប្រើប្រាស់វាខុសអាចណែនាំភាពងាយរងគ្រោះថ្មី។ ខាងក្រោមនេះ យើងរៀបរាប់អំពីកង្វល់ និងបញ្ហាធំៗ រួមជាមួយនឹងបរិបទសម្រាប់នីមួយៗ៖

  • ការប្រើប្រាស់ជាសត្រូវដោយឧក្រិដ្ឋជនតាមអ៊ីនធឺណិត៖ សមត្ថភាពបង្កើតដូចគ្នាដែលជួយអ្នកការពារអាចផ្តល់អំណាចដល់អ្នកវាយប្រហារ។ តួអង្គគំរាមកំហែងកំពុងប្រើប្រាស់ AI ជំនាន់ថ្មីរួចហើយដើម្បីបង្កើតអ៊ីមែលបន្លំដែលគួរឱ្យជឿជាក់ បង្កើតមនុស្សក្លែងក្លាយ និងវីដេអូក្លែងបន្លំជ្រៅសម្រាប់វិស្វកម្មសង្គម បង្កើតមេរោគ polymorphic ដែលផ្លាស់ប្តូរឥតឈប់ឈរដើម្បីគេចពីការរកឃើញ និងសូម្បីតែទិដ្ឋភាពស្វ័យប្រវត្តិនៃការលួចចូល ( តើអ្វីទៅជា Generative AI in Cybersecurity? - Palo Alto Networks ) ។ ស្ទើរតែពាក់កណ្តាល (46%) នៃមេដឹកនាំសន្តិសុខតាមអ៊ីនធឺណិតមានការព្រួយបារម្ភថា AI ជំនាន់ថ្មីនឹងនាំទៅរកការវាយប្រហារបែបសត្រូវកម្រិតខ្ពស់បន្ថែមទៀត ( សន្តិសុខ AI ជំនាន់៖ និន្នាការ ការគំរាមកំហែង និងយុទ្ធសាស្ត្រកាត់បន្ថយ )។ “ការប្រណាំងអាវុធ AI” នេះមានន័យថា នៅពេលដែលអ្នកការពារទទួលយក AI អ្នកវាយប្រហារនឹងមិននៅឆ្ងាយទេ (តាមពិតទៅ ពួកគេអាចឈានមុខគេនៅក្នុងតំបន់ខ្លះ ដោយប្រើឧបករណ៍ AI ដែលមិនមានការគ្រប់គ្រង)។ អង្គការត្រូវតែត្រូវបានរៀបចំសម្រាប់ការគំរាមកំហែងដែលពង្រឹងដោយ AI ដែលកាន់តែញឹកញាប់ ស្មុគ្រស្មាញ និងពិបាកតាមដាន។

  • AI Hallucinations និងភាពមិនត្រឹមត្រូវ៖ គំរូ AI ជំនាន់អាចបង្កើតលទ្ធផលដែល អាចជឿជាក់បាន ប៉ុន្តែមិនត្រឹមត្រូវ ឬបំភាន់ - បាតុភូតដែលគេស្គាល់ថាជា ការយល់ច្រលំ។ នៅក្នុងបរិបទសុវត្ថិភាព AI អាចនឹងវិភាគឧប្បត្តិហេតុមួយ ហើយសន្និដ្ឋានដោយច្រឡំថា ភាពងាយរងគ្រោះជាក់លាក់មួយគឺជាមូលហេតុ ឬវាអាចបង្កើតស្គ្រីបជួសជុលកំហុសដែលបរាជ័យក្នុងការផ្ទុកការវាយប្រហារ។ កំហុស​ទាំងនេះ​អាច​មាន​គ្រោះថ្នាក់ ប្រសិនបើ​ត្រូវ​បាន​គេ​យក​តាម​តម្លៃ​មុខ។ ដូចដែល NTT Data ព្រមានថា "AI ជំនាន់ថ្មីអាចនឹងបញ្ចេញនូវខ្លឹមសារមិនពិត ហើយបាតុភូតនេះត្រូវបានគេហៅថាការភ័ន្តច្រឡំ... បច្ចុប្បន្ននេះវាពិបាកក្នុងការលុបបំបាត់ពួកវាទាំងស្រុង" ( សុវត្ថិភាពហានិភ័យនៃការបង្កើត AI និងវិធានការប្រឆាំង និងផលប៉ះពាល់របស់វាទៅលើសុវត្ថិភាពអ៊ីនធឺណិត | NTT DATA Group )។ ការពឹងផ្អែកខ្លាំងលើ AI ដោយគ្មានការផ្ទៀងផ្ទាត់អាចនាំឱ្យមានការខិតខំប្រឹងប្រែងខុសទិសដៅ ឬអារម្មណ៍សុវត្ថិភាពមិនពិត។ ជាឧទាហរណ៍ AI អាចនឹងក្លែងបន្លំប្រព័ន្ធសំខាន់មួយថាមានសុវត្ថិភាព នៅពេលដែលវាមិនមាន ឬផ្ទុយទៅវិញ បង្កឱ្យមានការភ័យស្លន់ស្លោដោយ "រកឃើញ" ការបំពានដែលមិនធ្លាប់មាន។ ភាពត្រឹមត្រូវយ៉ាងម៉ត់ចត់នៃលទ្ធផល AI និងការមានមនុស្សនៅក្នុងរង្វិលជុំសម្រាប់ការសម្រេចចិត្តសំខាន់គឺចាំបាច់ដើម្បីកាត់បន្ថយហានិភ័យនេះ។

  • ភាពវិជ្ជមាន និងអវិជ្ជមានមិនពិត៖ ទាក់ទងទៅនឹងការយល់ច្រលំ ប្រសិនបើគំរូ AI ត្រូវបានបណ្តុះបណ្តាល ឬកំណត់រចនាសម្ព័ន្ធមិនបានល្អ វាអាច រាយការណ៍ពីសកម្មភាពស្លូតបូតហួសហេតុថាជាព្យាបាទ (វិជ្ជមានមិនពិត) ឬអាក្រក់ជាងនេះ ខកខានការគំរាមកំហែងពិតប្រាកដ (អវិជ្ជមានមិនពិត) ( តើ AI ជំនាន់ថ្មីអាចត្រូវបានប្រើប្រាស់ក្នុងសុវត្ថិភាពតាមអ៊ីនធឺណិតដោយរបៀបណា )។ ការដាស់តឿនមិនពិតច្រើនហួសប្រមាណអាចគ្របដណ្ដប់ក្រុមសន្តិសុខ និងនាំឱ្យមានការដាស់តឿនភាពអស់កម្លាំង (ការមិនធ្វើវិញនូវប្រសិទ្ធភាពខ្ពស់ដែល AI បានសន្យា) ខណៈពេលដែលការរកឃើញដែលខកខានបានធ្វើឱ្យអង្គការប្រឈមមុខ។ ការលៃតម្រូវម៉ូដែលបង្កើតសម្រាប់តុល្យភាពត្រឹមត្រូវគឺពិបាកណាស់។ បរិយាកាសនីមួយៗមានលក្ខណៈប្លែកពីគេ ហើយ AI ប្រហែលជាមិនដំណើរការភ្លាមៗចេញពីប្រអប់នោះទេ។ ការរៀនសូត្រជាបន្តគឺជាដាវមុខពីរផងដែរ - ប្រសិនបើ AI រៀនពីមតិកែលម្អដែលមិនយល់ស្រប ឬពីបរិយាកាសដែលផ្លាស់ប្តូរ ភាពត្រឹមត្រូវរបស់វាអាចប្រែប្រួល។ ក្រុមសន្តិសុខត្រូវតែត្រួតពិនិត្យការអនុវត្ត AI និងកែតម្រូវកម្រិត ឬផ្តល់មតិកែលម្អចំពោះម៉ូដែល។ នៅក្នុងបរិបទដែលមានភាគហ៊ុនខ្ពស់ (ដូចជាការរកឃើញការឈ្លានពានសម្រាប់ហេដ្ឋារចនាសម្ព័ន្ធសំខាន់ៗ) វាអាចជាការប្រុងប្រយ័ត្នក្នុងការដំណើរការការផ្តល់យោបល់ AI ស្របជាមួយនឹងប្រព័ន្ធដែលមានស្រាប់ក្នុងរយៈពេលមួយ ដើម្បីធានាថាពួកវាតម្រឹម និងបំពេញបន្ថែមជាជាងការប៉ះទង្គិច។

  • ភាពឯកជន និងការលេចធ្លាយទិន្នន័យ៖ ប្រព័ន្ធ AI ជំនាន់ថ្មីតែងតែត្រូវការទិន្នន័យយ៉ាងច្រើនសម្រាប់ការបណ្តុះបណ្តាល និងប្រតិបត្តិការ។ ប្រសិនបើម៉ូដែលទាំងនេះមានមូលដ្ឋានលើពពក ឬមិនបានដាក់ឱ្យបានត្រឹមត្រូវ វាមានហានិភ័យដែលព័ត៌មានរសើបអាចលេចធ្លាយ។ អ្នកប្រើប្រាស់អាចបញ្ជូនទិន្នន័យកម្មសិទ្ធិ ឬទិន្នន័យផ្ទាល់ខ្លួនទៅក្នុងសេវាកម្ម AI ដោយអចេតនា (គិតថាស្នើឱ្យ ChatGPT សង្ខេបរបាយការណ៍ឧបទ្ទវហេតុសម្ងាត់) ហើយទិន្នន័យនោះអាចក្លាយជាផ្នែកមួយនៃចំណេះដឹងរបស់ម៉ូដែល។ ជាការពិតណាស់ ការសិក្សាថ្មីៗនេះបានរកឃើញថា 55% នៃការបញ្ចូលទៅក្នុងឧបករណ៍ AI ជំនាន់នោះមានព័ត៌មានរសើប ឬអាចកំណត់អត្តសញ្ញាណផ្ទាល់ខ្លួនបាន ដែលបង្កឱ្យមានការព្រួយបារម្ភយ៉ាងខ្លាំងអំពីការលេចធ្លាយទិន្នន័យ ( Generative AI Security: Trends, Threats & Mitigation Strategies )។ លើសពីនេះទៀត ប្រសិនបើ AI ត្រូវបានបណ្តុះបណ្តាលលើទិន្នន័យខាងក្នុង ហើយវាត្រូវបានសួរតាមវិធីជាក់លាក់ វាអាច បញ្ចេញ បំណែកនៃទិន្នន័យរសើបនោះទៅអ្នកផ្សេង។ អង្គការត្រូវតែអនុវត្តគោលនយោបាយគ្រប់គ្រងទិន្នន័យដ៏តឹងរ៉ឹង (ឧ. ការប្រើប្រាស់វត្ថុ AI នៅក្នុងបរិវេណ ឬឯកជនសម្រាប់សម្ភារៈរសើប) និងអប់រំបុគ្គលិកអំពីការមិនបិទភ្ជាប់ព័ត៌មានសម្ងាត់ទៅក្នុងឧបករណ៍ AI សាធារណៈ។ បទប្បញ្ញត្តិឯកជនភាព (GDPR ។ល។) ក៏ចូលជាធរមានផងដែរ - ការប្រើទិន្នន័យផ្ទាល់ខ្លួនដើម្បីបណ្តុះបណ្តាល AI ដោយគ្មានការយល់ព្រម ឬការការពារត្រឹមត្រូវអាចដំណើរការខុសនឹងច្បាប់។

  • គំរូសុវត្ថិភាព និងឧបាយកល៖ គំរូ AI បង្កើតដោយខ្លួនឯងអាចក្លាយជាគោលដៅ។ សត្រូវ​អាច​នឹង​ប៉ុនប៉ង ​បំពុល​គំរូ ផ្តល់​ទិន្នន័យ​ព្យាបាទ ឬ​បំភាន់​ក្នុង​អំឡុង​ពេល​វគ្គ​បណ្តុះបណ្តាល ឬ​វគ្គ​បណ្តុះបណ្តាល​ឡើងវិញ ដូច្នេះ AI រៀន​លំនាំ​មិន​ត្រឹមត្រូវ ( តើ AI ជំនាន់​អាច​ត្រូវ​បាន​ប្រើ​ក្នុង​សុវត្ថិភាព​តាមអ៊ីនធឺណិត​ដោយ​របៀបណា )។ ឧទាហរណ៍ អ្នកវាយប្រហារអាចបំពុលទិន្នន័យ Intel ដែលគំរាមកំហែងយ៉ាងធ្ងន់ធ្ងរ ដូច្នេះ AI មិនអាចទទួលស្គាល់មេរោគផ្ទាល់ខ្លួនរបស់អ្នកវាយប្រហារថាជាមេរោគ។ យុទ្ធសាស្ត្រមួយទៀតគឺ ការចាក់បញ្ចូលភ្លាមៗ ឬការរៀបចំលទ្ធផល ដែលអ្នកវាយប្រហារស្វែងរកវិធីដើម្បីចេញធាតុចូលដល់ AI ដែលបណ្តាលឱ្យវាប្រព្រឹត្តតាមរបៀបដែលមិនចង់បាន ប្រហែលជាមិនអើពើនឹងការការពារសុវត្ថិភាពរបស់វា ឬបង្ហាញព័ត៌មានដែលវាមិនគួរ (ដូចជាព័ត៌មានខាងក្នុង ឬទិន្នន័យ)។ លើសពីនេះ វាមានហានិភ័យនៃ ការគេចពីគំរូ ៖ អ្នកវាយប្រហារបង្កើតការបញ្ចូលដែលត្រូវបានរចនាឡើងជាពិសេសដើម្បីបន្លំ AI ។ យើងឃើញវានៅក្នុងឧទាហរណ៍ផ្ទុយគ្នា – ទិន្នន័យរំខានបន្តិចបន្តួចដែលមនុស្សមើលឃើញថាជាធម្មតា ប៉ុន្តែ AI បែងចែកខុស។ ការធានាថាខ្សែសង្វាក់ផ្គត់ផ្គង់ AI មានសុវត្ថភាព (សុវត្ថភាពទិន្នន័យ ការគ្រប់គ្រងការចូលប្រើគំរូ ការធ្វើតេស្តភាពរឹងមាំរបស់សត្រូវ) គឺជាផ្នែកថ្មី ប៉ុន្តែចាំបាច់នៃសុវត្ថិភាពតាមអ៊ីនធឺណិត នៅពេលដាក់ពង្រាយឧបករណ៍ទាំងនេះ ( តើអ្វីទៅជា Generative AI in Cybersecurity? - Palo Alto Networks ) ។

  • Over-Reliance and Skill Erosion: មានហានិភ័យទន់ជាងដែលអង្គការអាចក្លាយជាមនុស្សពឹងផ្អែកខ្លាំងលើ AI និងអនុញ្ញាតឱ្យជំនាញរបស់មនុស្សធ្លាក់ចុះ។ ប្រសិនបើអ្នកវិភាគវ័យក្មេងមកជឿជាក់លើលទ្ធផល AI ដោយខ្វាក់ភ្នែក ពួកគេប្រហែលជាមិនអភិវឌ្ឍការគិត និងវិចារណញាណដែលចាំបាច់សម្រាប់ពេលដែល AI មិនអាចប្រើបាន ឬខុសនោះទេ។ សេណារីយ៉ូដែលត្រូវជៀសវាងគឺក្រុមសន្តិសុខដែលមានឧបករណ៍ដ៏អស្ចារ្យ ប៉ុន្តែមិនដឹងពីរបៀបប្រតិបត្តិការប្រសិនបើឧបករណ៍ទាំងនោះធ្លាក់ចុះ (ស្រដៀងទៅនឹងអ្នកបើកបរដែលពឹងផ្អែកខ្លាំងលើ autopilot)។ លំហាត់ហ្វឹកហ្វឺនជាទៀងទាត់ដោយគ្មានជំនួយពី AI និងជំរុញផ្នត់គំនិតថា AI គឺជាជំនួយការ មិនមែនជាការនិយាយដែលមិនអាចកាត់ថ្លៃបាននោះទេ មានសារៈសំខាន់ក្នុងការធ្វើឱ្យអ្នកវិភាគរបស់មនុស្សមានភាពមុតស្រួច។ មនុស្សត្រូវតែនៅតែជាអ្នកធ្វើការសម្រេចចិត្តចុងក្រោយ ជាពិសេសសម្រាប់ការវិនិច្ឆ័យដែលមានឥទ្ធិពលខ្ពស់។

  • បញ្ហាប្រឈមខាងក្រមសីលធម៌ និងអនុលោមភាព៖ ការប្រើប្រាស់ AI ក្នុងសន្តិសុខតាមអ៊ីនធឺណិតបង្កើនសំណួរអំពីសីលធម៌ និងអាចបង្កឱ្យមានបញ្ហានៃការអនុលោមតាមច្បាប់។ ជាឧទាហរណ៍ ប្រសិនបើប្រព័ន្ធ AI បង្កប់ន័យខុសចំពោះនិយោជិតជាអ្នកខាងក្នុងព្យាបាទ ដោយសារភាពមិនប្រក្រតី វាអាចបំផ្លាញកេរ្តិ៍ឈ្មោះ ឬអាជីពរបស់បុគ្គលនោះដោយអយុត្តិធម៌។ ការសម្រេចចិត្តដែលធ្វើឡើងដោយ AI អាចមានភាពស្រអាប់ (បញ្ហា "ប្រអប់ខ្មៅ") ដែលធ្វើឱ្យវាពិបាកក្នុងការពន្យល់ដល់សវនករ ឬនិយតករថាហេតុអ្វីបានជាមានសកម្មភាពមួយចំនួន។ ដោយសារមាតិកាដែលបង្កើតដោយ AI កាន់តែមានភាពទូលំទូលាយ ការធានានូវតម្លាភាព និងការរក្សាគណនេយ្យភាពគឺមានសារៈសំខាន់ណាស់។ និយតករកំពុងចាប់ផ្តើមពិនិត្យមើល AI ជាឧទាហរណ៍ ច្បាប់ AI របស់សហភាពអឺរ៉ុបនឹងដាក់តម្រូវការលើប្រព័ន្ធ AI ដែលមានហានិភ័យខ្ពស់ ហើយសុវត្ថិភាពតាមអ៊ីនធឺណិត AI អាចធ្លាក់ក្នុងប្រភេទនោះ។ ក្រុមហ៊ុននឹងត្រូវរុករកបទប្បញ្ញត្តិទាំងនេះ ហើយអាចប្រកាន់ខ្ជាប់នូវស្តង់ដារដូចជា NIST AI Risk Management Framework ដើម្បីប្រើប្រាស់ AI ទូទៅប្រកបដោយទំនួលខុសត្រូវ ( តើ AI Generative អាចត្រូវបានប្រើប្រាស់ក្នុងសុវត្ថិភាពតាមអ៊ីនធឺណិតដោយរបៀបណា? 10 Real-World Examples ) ។ ការអនុលោមតាមច្បាប់បានពង្រីកដល់ការផ្តល់អាជ្ញាប័ណ្ណផងដែរ៖ ការប្រើគំរូប្រភពបើកចំហ ឬភាគីទីបីអាចមានលក្ខខណ្ឌដែលដាក់កម្រិតលើការប្រើប្រាស់ជាក់លាក់ ឬទាមទារការកែលម្អការចែករំលែក។

សរុបមក AI ជំនាន់ថ្មី មិនមែនជាគ្រាប់កាំភ្លើង ទេ ប្រសិនបើមិនបានអនុវត្តដោយប្រុងប្រយ័ត្នទេ វាអាចបង្ហាញចំណុចខ្សោយថ្មីៗ ទោះបីវាជួយដោះស្រាយអ្នកដទៃក៏ដោយ។ ការសិក្សាអំពីវេទិកាសេដ្ឋកិច្ចពិភពលោកឆ្នាំ 2024 បានគូសបញ្ជាក់ថា 47% នៃអង្គការបានលើកឡើងពីភាពជឿនលឿននៃ AI ជំនាន់ដោយអ្នកវាយប្រហារជាកង្វល់ចម្បង ដែលធ្វើឱ្យវា "ផលប៉ះពាល់ដែលពាក់ព័ន្ធបំផុតនៃ AI ជំនាន់" នៅក្នុងសន្តិសុខតាមអ៊ីនធឺណិត ( [PDF] Global Cybersecurity Outlook 2025 | World Economic Forum ) ( Generative AI in Cyresecurity ) ។ ដូច្នេះ អង្គការត្រូវតែទទួលយកវិធីសាស្រ្តប្រកបដោយតុល្យភាព៖ ប្រើប្រាស់អត្ថប្រយោជន៍របស់ AI ខណៈពេលដែលគ្រប់គ្រងហានិភ័យទាំងនេះយ៉ាងម៉ត់ចត់តាមរយៈអភិបាលកិច្ច ការធ្វើតេស្ត និងការត្រួតពិនិត្យរបស់មនុស្ស។ យើងនឹងពិភាក្សាគ្នាអំពីវិធីដើម្បីសម្រេចបានសមតុល្យនោះ។

ទស្សនវិស័យអនាគត៖ តួនាទីវិវត្តន៍របស់ AI ជំនាន់ថ្មីក្នុងសុវត្ថិភាពអ៊ីនធឺណិត

សម្លឹងមើលទៅមុខ AI ជំនាន់ថ្មីនឹងត្រៀមខ្លួនក្លាយជាផ្នែកសំខាន់មួយនៃយុទ្ធសាស្ត្រសន្តិសុខតាមអ៊ីនធឺណិត ហើយដូចគ្នាដែរ ឧបករណ៍ដែលសត្រូវតាមអ៊ីនធឺណិតនឹងបន្តទាញយកប្រយោជន៍។ ឆ្មា និងកណ្ដុរ នឹងបង្កើនល្បឿនដោយមាន AI នៅសងខាងនៃរបង។ នេះ​ជា​ការ​យល់​ដឹង​ដែល​ទន្ទឹង​រង់ចាំ​មួយ​ចំនួន​អំពី​របៀប​ដែល AI ជំនាន់​ថ្មី​អាច​នឹង​បង្កើត​សុវត្ថិភាព​តាម​អ៊ីនធឺណិត​នៅ​ប៉ុន្មាន​ឆ្នាំ​ខាង​មុខ​នេះ៖

  • AI-Augmented Cyber ​​Defense ក្លាយជាស្តង់ដារ៖ នៅឆ្នាំ 2025 និងលើសពីនេះ យើងអាចរំពឹងថា អង្គការមធ្យមទៅធំភាគច្រើននឹងដាក់បញ្ចូលឧបករណ៍ដែលជំរុញដោយ AI ទៅក្នុងប្រតិបត្តិការសុវត្ថិភាពរបស់ពួកគេ។ ដូចកម្មវិធីកំចាត់មេរោគ និងជញ្ជាំងភ្លើងជាស្តង់ដារនាពេលបច្ចុប្បន្ននេះ ប្រព័ន្ធ AI copilots និងប្រព័ន្ធរកឃើញភាពមិនប្រក្រតីអាចក្លាយជាធាតុផ្សំជាមូលដ្ឋាននៃស្ថាបត្យកម្មសុវត្ថិភាព។ ឧបករណ៍ទាំងនេះទំនងជានឹងក្លាយទៅជាឯកទេសជាងមុន - ឧទាហរណ៍ ម៉ូដែល AI ដាច់ដោយឡែកដែលត្រូវបានកែសម្រួលយ៉ាងល្អិតល្អន់សម្រាប់សុវត្ថិភាពពពក សម្រាប់ការត្រួតពិនិត្យឧបករណ៍ IoT សម្រាប់សុវត្ថិភាពកូដកម្មវិធី និងអ្វីៗផ្សេងទៀតដែលដំណើរការនៅក្នុងការប្រគុំតន្ត្រី។ ជាការព្យាករណ៍មួយបានកត់សម្គាល់ថា "នៅឆ្នាំ 2025 បច្ចេកវិទ្យា AI ជំនាន់ថ្មីនឹងរួមបញ្ចូលជាមួយសន្តិសុខតាមអ៊ីនធឺណិត ដែលអនុញ្ញាតឱ្យអង្គការការពារប្រឆាំងនឹងការគំរាមកំហែងដ៏ទំនើប និងការវិវត្តន៍យ៉ាងសកម្ម" ( តើ AI ជំនាន់ថ្មីអាចប្រើក្នុងសុវត្ថិភាពតាមអ៊ីនធឺណិតបានដោយរបៀបណា )។ AI នឹងពង្រឹងការរកឃើញការគំរាមកំហែងតាមពេលវេលាជាក់ស្តែង ធ្វើស្វ័យប្រវត្តិកម្មនូវសកម្មភាពឆ្លើយតបជាច្រើន និងជួយក្រុមសុវត្ថិភាពគ្រប់គ្រងបរិមាណទិន្នន័យធំជាងអ្វីដែលពួកគេអាចធ្វើដោយដៃ។

  • ការរៀនបន្ត និងការសម្របខ្លួន៖ ប្រព័ន្ធ AI ជំនាន់អនាគតនៅក្នុងអ៊ីនធឺណេតនឹងកាន់តែប្រសើរឡើងក្នុង ការរៀនភ្លាមៗ ពីឧប្បត្តិហេតុថ្មី និងការស៊ើបការណ៍គំរាមកំហែង ដោយធ្វើបច្ចុប្បន្នភាពមូលដ្ឋានចំណេះដឹងរបស់ពួកគេក្នុងពេលជាក់ស្តែង។ នេះអាចនាំទៅដល់ការការពារការសម្របខ្លួនយ៉ាងពិតប្រាកដ – ស្រមៃថា AI ដែលរៀនអំពីយុទ្ធនាការបន្លំថ្មីមួយដែលវាយលុកក្រុមហ៊ុនមួយផ្សេងទៀតនៅពេលព្រឹក ហើយនៅពេលរសៀលបានកែសម្រួលតម្រងអ៊ីមែលរបស់ក្រុមហ៊ុនអ្នករួចហើយក្នុងការឆ្លើយតប។ សេវាកម្មសុវត្ថិភាព AI ដែលមានមូលដ្ឋានលើពពក អាចជួយសម្រួលដល់ការរៀនសមូហភាពប្រភេទនេះ ដែលការយល់ដឹងអនាមិកពីស្ថាប័នមួយផ្តល់អត្ថប្រយោជន៍ដល់អតិថិជនទាំងអស់ (ដូចទៅនឹងការគំរាមកំហែងការចែករំលែក Intel ប៉ុន្តែដោយស្វ័យប្រវត្តិ)។ ទោះជាយ៉ាងណាក៏ដោយ វានឹងតម្រូវឱ្យមានការដោះស្រាយយ៉ាងប្រុងប្រយ័ត្ន ដើម្បីជៀសវាងការចែករំលែកព័ត៌មានរសើប និងដើម្បីការពារអ្នកវាយប្រហារពីការបញ្ចូលទិន្នន័យមិនល្អទៅក្នុងគំរូដែលបានចែករំលែក។

  • ការបញ្ចូលគ្នានៃ AI និង Cybersecurity Talent៖ សំណុំជំនាញរបស់អ្នកជំនាញផ្នែកសន្តិសុខតាមអ៊ីនធឺណិតនឹងវិវឌ្ឍន៍ដើម្បីរួមបញ្ចូលជំនាញ AI និងវិទ្យាសាស្ត្រទិន្នន័យ។ ដូចដែលអ្នកវិភាគថ្ងៃនេះរៀនភាសាសំណួរ និងការសរសេរស្គ្រីប អ្នកវិភាគនៅថ្ងៃស្អែកអាចកែសម្រួលគំរូ AI ជាទៀងទាត់ ឬសរសេរ "សៀវភៅលេង" សម្រាប់ AI ដើម្បីប្រតិបត្តិ។ យើងប្រហែលជាឃើញតួនាទីថ្មីដូចជា “AI Security Trainer”“Cybersecurity AI Engineer” – មនុស្សដែលមានជំនាញក្នុងការសម្របឧបករណ៍ AI ទៅនឹងតម្រូវការរបស់ស្ថាប័ន ធ្វើសុពលភាពប្រតិបត្តិការរបស់ពួកគេ និងធានាថាពួកគេដំណើរការដោយសុវត្ថិភាព។ នៅផ្នែកម្ខាងវិញ ការពិចារណាអំពីសុវត្ថិភាពតាមអ៊ីនធឺណិតនឹងមានឥទ្ធិពលកាន់តែខ្លាំងឡើងលើការអភិវឌ្ឍន៍ AI ។ ប្រព័ន្ធ AI នឹងត្រូវបានបង្កើតឡើងជាមួយនឹងមុខងារសុវត្ថិភាពតាំងពីមូលដ្ឋាន (ស្ថាបត្យកម្មសុវត្ថិភាព ការរកឃើញការរំខាន កំណត់ហេតុសវនកម្មសម្រាប់ការសម្រេចចិត្តរបស់ AI

  • ការវាយប្រហារដោយ AI ទំនើបជាងមុន៖ ជាអកុសល ទិដ្ឋភាពគំរាមកំហែងក៏នឹងវិវត្តន៍ជាមួយ AI ផងដែរ។ យើងរំពឹងថានឹងប្រើប្រាស់ AI ញឹកញាប់ជាងមុន ដើម្បីស្វែងរកភាពងាយរងគ្រោះសូន្យថ្ងៃ ដើម្បីបង្កើតការបន្លំលំពែងដែលមានគោលដៅខ្ពស់ (ឧទាហរណ៍ AI បន្លំប្រព័ន្ធផ្សព្វផ្សាយសង្គម ដើម្បីបង្កើតនុយដែលកែតម្រូវយ៉ាងល្អឥតខ្ចោះ) និងដើម្បីបង្កើតសំឡេង ឬវីដេអូក្លែងក្លាយដែលគួរឱ្យជឿជាក់ដើម្បីចៀសវាងការផ្ទៀងផ្ទាត់ជីវមាត្រ ឬការក្លែងបន្លំ។ ភ្នាក់ងារលួចចូលដោយស្វ័យប្រវត្តិអាចលេចឡើងដែលអាចធ្វើការវាយប្រហារច្រើនដំណាក់កាលដោយឯករាជ្យ (ការឈ្លបយកការណ៍ ការកេងប្រវ័ញ្ច ចលនានៅពេលក្រោយ។ល។) ជាមួយនឹងការត្រួតពិនិត្យតិចតួចបំផុតរបស់មនុស្ស។ វា​នឹង​ដាក់​សម្ពាធ​ដល់​អ្នក​ការពារ​ឱ្យ​ពឹង​ផ្អែក​លើ AI ផងដែរ – ជា​សំខាន់ ​ស្វ័យប្រវត្តិកម្ម និង​ស្វ័យប្រវត្តិកម្ម ។ ការវាយប្រហារមួយចំនួនអាចកើតឡើងក្នុងល្បឿនម៉ាស៊ីន ដូចជា AI bots ព្យាយាមបំប្លែងអ៊ីមែលបន្លំមួយពាន់ ដើម្បីមើលថាតើមួយណាទទួលបានតម្រងពីមុន។ ការ​ការពារ​តាម​អ៊ីនធឺណិត​នឹង​ត្រូវ​ប្រតិបត្តិការ​ក្នុង​ល្បឿន​និង​ភាព​បត់​បែន​ស្រដៀង​គ្នា​ដើម្បី​តាម​ដាន ( តើ​អ្វី​ទៅ​ជា​ AI Generative AI in Cybersecurity? - Palo Alto Networks )។

  • បទប្បញ្ញត្តិ និងក្រមសីលធម៌ AI ក្នុងសន្តិសុខ៖ នៅពេលដែល AI ក្លាយជាបង្កប់យ៉ាងជ្រៅនៅក្នុងមុខងារសន្តិសុខតាមអ៊ីនធឺណិត វានឹងមានការត្រួតពិនិត្យកាន់តែខ្លាំង និងអាចមានបទប្បញ្ញត្តិដើម្បីធានាថាប្រព័ន្ធ AI ទាំងនេះត្រូវបានប្រើប្រាស់ប្រកបដោយការទទួលខុសត្រូវ។ យើងអាចរំពឹងថានឹងមានក្របខ័ណ្ឌ និងស្តង់ដារជាក់លាក់ចំពោះ AI ក្នុងសុវត្ថិភាព។ រដ្ឋាភិបាលអាចកំណត់គោលការណ៍ណែនាំសម្រាប់តម្លាភាព – ឧទាហរណ៍ តម្រូវឱ្យការសម្រេចចិត្តផ្នែកសន្តិសុខសំខាន់ៗ (ដូចជាការបញ្ចប់សិទ្ធិចូលដំណើរការរបស់បុគ្គលិកសម្រាប់សកម្មភាពព្យាបាទ) មិនអាចធ្វើឡើងដោយ AI តែម្នាក់ឯងដោយគ្មានការត្រួតពិនិត្យពីមនុស្សទេ។ វាក៏អាចមានវិញ្ញាបនប័ត្រសម្រាប់ផលិតផលសុវត្ថិភាព AI ដើម្បីធានាដល់អ្នកទិញថា AI ត្រូវបានវាយតម្លៃសម្រាប់ភាពលំអៀង ភាពរឹងមាំ និងសុវត្ថិភាព។ លើសពីនេះ កិច្ចសហប្រតិបត្តិការអន្តរជាតិអាចរីកចម្រើនជុំវិញការគំរាមកំហែងតាមអ៊ីនធឺណិតដែលទាក់ទងនឹង AI ។ ជាឧទាហរណ៍ កិច្ចព្រមព្រៀងស្តីពីការដោះស្រាយព័ត៌មានមិនពិតដែលបង្កើតឡើងដោយ AI ឬបទដ្ឋានប្រឆាំងនឹងអាវុធអ៊ីនធឺណិតដែលជំរុញដោយ AI មួយចំនួន។

  • ការធ្វើសមាហរណកម្មជាមួយប្រព័ន្ធ AI និង IT កាន់តែទូលំទូលាយ៖ ការបង្កើត AI នៅក្នុងសុវត្ថិភាពតាមអ៊ីនធឺណិតទំនងជានឹងរួមបញ្ចូលជាមួយប្រព័ន្ធ AI និងឧបករណ៍គ្រប់គ្រងព័ត៌មានវិទ្យាផ្សេងទៀត។ ឧទាហរណ៍ AI ដែលគ្រប់គ្រងការបង្កើនប្រសិទ្ធភាពបណ្តាញអាចធ្វើការជាមួយ AI សុវត្ថិភាព ដើម្បីធានាថាការផ្លាស់ប្តូរមិនបើកចន្លោះប្រហោង។ ការវិភាគអាជីវកម្មដែលជំរុញដោយ AI អាចនឹងចែករំលែកទិន្នន័យជាមួយ AIs សុវត្ថិភាព ដើម្បីទាក់ទងភាពមិនប្រក្រតី (ដូចជាការធ្លាក់ចុះនៃការលក់ភ្លាមៗជាមួយនឹងបញ្ហាគេហទំព័រដែលអាចកើតមានដោយសារការវាយប្រហារ)។ សរុបមក AI នឹងមិនរស់នៅក្នុង silo នោះទេ វានឹងក្លាយជាផ្នែកមួយនៃក្រណាត់ឆ្លាតវៃធំជាងនៃប្រតិបត្តិការរបស់ស្ថាប័នមួយ។ នេះបើកឱកាសសម្រាប់ការគ្រប់គ្រងហានិភ័យរួម ដែលទិន្នន័យប្រតិបត្តិការ ទិន្នន័យគំរាមកំហែង និងសូម្បីតែទិន្នន័យសុវត្ថិភាពរាងកាយអាចត្រូវបានរួមបញ្ចូលគ្នាដោយ AI ដើម្បីផ្តល់នូវទិដ្ឋភាព 360 ដឺក្រេនៃឥរិយាបថសុវត្ថិភាពរបស់ស្ថាប័ន។

ក្នុង​រយៈ​ពេល​វែង ក្តី​សង្ឃឹម​គឺ​ថា AI ជំនាន់​ថ្មី​នឹង​ជួយ​សម្រួល​តុល្យភាព​ក្នុង​ការ​ពេញ​ចិត្ត​អ្នក​ការពារ។ តាមរយៈការគ្រប់គ្រងទំហំ និងភាពស្មុគស្មាញនៃបរិស្ថាន IT ទំនើប AI អាចធ្វើឱ្យ cyberspace កាន់តែមានការការពារ។ ទោះយ៉ាងណាក៏ដោយ វាជាដំណើរមួយ ហើយវានឹងមានការឈឺចុកចាប់កាន់តែខ្លាំង នៅពេលដែលយើងកែលម្អបច្ចេកវិទ្យាទាំងនេះ ហើយរៀនជឿជាក់លើពួកវាឱ្យបានត្រឹមត្រូវ។ អង្គការដែលរក្សាការជូនដំណឹង និងវិនិយោគក្នុង ការទទួលយក AI ប្រកបដោយទំនួលខុសត្រូវ សម្រាប់សុវត្ថិភាព ទំនងជានឹងជាស្ថាប័នដែលមានទីតាំងល្អបំផុតដើម្បីរុករកការគំរាមកំហែងនាពេលអនាគត។

ដូចដែលរបាយការណ៍និន្នាការសុវត្ថិភាពអ៊ីនធឺណិតថ្មីៗរបស់ Gartner បានកត់សម្គាល់ "ការលេចឡើងនៃករណីប្រើប្រាស់ AI ទូទៅ (និងហានិភ័យ) កំពុងបង្កើតសម្ពាធសម្រាប់ការផ្លាស់ប្តូរ" ( Cybersecurity Trends: Resilience Through Transformation - Gartner ) ។ អ្នកដែលសម្របខ្លួននឹងប្រើ AI ជាសម្ព័ន្ធមិត្តដ៏មានឥទ្ធិពល។ អ្នក​ដែល​យឺតយ៉ាវ​អាច​រក​ឃើញ​ថា​ខ្លួន​គេ​មាន​ប្រៀប​ជាង​សត្រូវ​ដែល​ផ្តល់​អំណាច​ដោយ AI។ ប៉ុន្មានឆ្នាំខាងមុខនឹងក្លាយជាពេលវេលាដ៏សំខាន់ក្នុងការកំណត់ពីរបៀបដែល AI ផ្លាស់ប្តូរសមរភូមិតាមអ៊ីនធឺណិត។

ការអនុវត្តជាក់ស្តែងសម្រាប់ការទទួលយក AI ជំនាន់ថ្មីនៅក្នុង Cybersecurity

សម្រាប់អាជីវកម្មដែលវាយតម្លៃពីរបៀបប្រើប្រាស់ AI បង្កើតនៅក្នុងយុទ្ធសាស្ត្រសុវត្ថិភាពតាមអ៊ីនធឺណិតរបស់ពួកគេ ខាងក្រោមនេះជា ការណែនាំ និងការអនុវត្តជាក់ស្តែង ដើម្បីណែនាំការទទួលយកប្រកបដោយការទទួលខុសត្រូវ និងមានប្រសិទ្ធភាព៖

  1. ចាប់ផ្តើមជាមួយការអប់រំ និងការបណ្តុះបណ្តាល៖ ត្រូវប្រាកដថាក្រុមសន្តិសុខរបស់អ្នក (និងបុគ្គលិកផ្នែកព័ត៌មានវិទ្យាកាន់តែទូលំទូលាយ) យល់ពីអ្វីដែល AI ជំនាន់មុនអាចធ្វើបាន និងមិនអាចធ្វើបាន។ ផ្តល់ការបណ្តុះបណ្តាលអំពីមូលដ្ឋានគ្រឹះនៃឧបករណ៍សុវត្ថិភាពដែលជំរុញដោយ AI និងធ្វើបច្ចុប្បន្នភាព កម្មវិធីការយល់ដឹងអំពីសុវត្ថិភាព សម្រាប់បុគ្គលិកទាំងអស់ដើម្បីគ្របដណ្តប់ការគំរាមកំហែងដែលដំណើរការដោយ AI ។ ជាឧទាហរណ៍ បង្រៀនបុគ្គលិកពីរបៀបដែល AI អាចបង្កើតការបោកប្រាស់ដ៏គួរឱ្យជឿជាក់ និងការហៅក្លែងក្លាយយ៉ាងជ្រៅ។ ក្នុងពេលដំណាលគ្នា បណ្តុះបណ្តាលបុគ្គលិកអំពីការប្រើប្រាស់ឧបករណ៍ AI ប្រកបដោយសុវត្ថិភាព និងត្រូវបានអនុម័តក្នុងការងាររបស់ពួកគេ។ អ្នក​ប្រើ​ដែល​ទទួល​បាន​ព័ត៌មាន​ច្បាស់​លាស់​ទំនង​ជា​មិន​សូវ​យល់​ដឹង​ខុស​ពី​ AI ឬ​ជា​ជនរងគ្រោះ​នៃ​ការ​វាយ​ប្រហារ​ដែល​បាន​ពង្រឹង​ AI (តើ​ AI ជំនាន់​ថ្មី​អាច​ត្រូវ​បាន​ប្រើ​ក្នុង​សុវត្ថិភាព​តាម​អ៊ីនធឺណិត​ដោយ​របៀប​ណា? 10 Real-World Examples )។

  2. កំណត់គោលការណ៍នៃការប្រើប្រាស់ AI ច្បាស់លាស់៖ ចាត់ទុក AI ជំនាន់មុនដូចជាបច្ចេកវិទ្យាដ៏មានអានុភាពណាមួយ – ជាមួយនឹងការគ្រប់គ្រង។ បង្កើតគោលការណ៍ដែលបញ្ជាក់ថាតើអ្នកណាអាចប្រើឧបករណ៍ AI ឧបករណ៍ណាដែលត្រូវបានដាក់ទណ្ឌកម្ម និងសម្រាប់គោលបំណងអ្វី។ រួមបញ្ចូលគោលការណ៍ណែនាំស្តីពីការគ្រប់គ្រងទិន្នន័យរសើប (ឧ. គ្មានការផ្តល់ទិន្នន័យសម្ងាត់ ទៅក្នុងសេវាកម្ម AI ខាងក្រៅ) ដើម្បីការពារការលេចធ្លាយ។ ជាឧទាហរណ៍ អ្នកអាចអនុញ្ញាតឱ្យតែសមាជិកក្រុមសន្តិសុខប្រើប្រាស់ជំនួយការ AI ខាងក្នុងសម្រាប់ការឆ្លើយតបឧប្បត្តិហេតុ ហើយទីផ្សារអាចប្រើ AI ដែលត្រូវបានត្រួតពិនិត្យសម្រាប់មាតិកា - អ្នកផ្សេងទៀតត្រូវបានដាក់កម្រិត។ អង្គការជាច្រើនឥឡូវនេះកំពុងដោះស្រាយយ៉ាងជាក់លាក់អំពី AI ជំនាន់ថ្មីនៅក្នុងគោលនយោបាយ IT របស់ពួកគេ ហើយស្ថាប័នស្តង់ដារឈានមុខគេលើកទឹកចិត្តឱ្យមានគោលនយោបាយប្រើប្រាស់ប្រកបដោយសុវត្ថិភាពជាជាងការហាមឃាត់ទាំងស្រុង (តើ AI ជំនាន់ថ្មីអាចប្រើប្រាស់បានក្នុងសុវត្ថិភាពតាមអ៊ីនធឺណិតដោយរបៀបណា? 10 Real-World Examples ) ។ ត្រូវប្រាកដថាដើម្បីទំនាក់ទំនងច្បាប់ទាំងនេះ និងហេតុផលនៅពីក្រោយពួកគេទៅកាន់បុគ្គលិកទាំងអស់។

  3. កាត់បន្ថយ “Shadow AI” និង Monitor Usage៖ ស្រដៀងទៅនឹងស្រមោល IT “shadow AI” កើតឡើងនៅពេលដែលបុគ្គលិកចាប់ផ្តើមប្រើប្រាស់ឧបករណ៍ AI ឬសេវាកម្មដោយគ្មានចំណេះដឹងផ្នែក IT (ឧ. អ្នកអភិវឌ្ឍន៍ដែលប្រើជំនួយការកូដ AI ដែលគ្មានការអនុញ្ញាត)។ នេះអាចណែនាំហានិភ័យដែលមើលមិនឃើញ។ អនុវត្តវិធានការដើម្បី ស្វែងរក និងគ្រប់គ្រងការប្រើប្រាស់ AI ដែលមិនមានការអនុញ្ញាត ។ ការត្រួតពិនិត្យបណ្តាញអាចដាក់ទង់ការតភ្ជាប់ទៅ AI APIs ដ៏ពេញនិយម ហើយការស្ទង់មតិ ឬសវនកម្មឧបករណ៍អាចបង្ហាញពីអ្វីដែលបុគ្គលិកកំពុងប្រើ។ ផ្តល់ជូននូវជម្រើសដែលត្រូវបានអនុម័ត ដូច្នេះបុគ្គលិកដែលមានអត្ថន័យល្អមិនត្រូវបានល្បួងឱ្យបោកប្រាស់ទេ (ឧទាហរណ៍ ផ្តល់គណនីផ្លូវការរបស់ ChatGPT Enterprise ប្រសិនបើមនុស្សយល់ថាវាមានប្រយោជន៍)។ តាមរយៈការនាំយកការប្រើប្រាស់ AI ទៅក្នុងពន្លឺ ក្រុមសន្តិសុខអាចវាយតម្លៃ និងគ្រប់គ្រងហានិភ័យ។ ការត្រួតពិនិត្យក៏ជាគន្លឹះផងដែរ - កត់ត្រាសកម្មភាពឧបករណ៍ AI និងលទ្ធផលឱ្យបានច្រើនតាមដែលអាចធ្វើបាន ដូច្នេះមានដំណើរការសវនកម្មសម្រាប់ការសម្រេចចិត្តដែល AI មានឥទ្ធិពល (តើ AI ជំនាន់ថ្មីអាចប្រើក្នុងសុវត្ថិភាពតាមអ៊ីនធឺណិតបានដោយរបៀបណា? 10 គំរូពិភពលោកពិត ) ។

  4. អានុភាព AI Defensively - កុំធ្លាក់ពីក្រោយ៖ ទទួលស្គាល់ថាអ្នកវាយប្រហារនឹងប្រើ AI ដូច្នេះការការពាររបស់អ្នកក៏គួរតែផងដែរ។ កំណត់តំបន់ដែលមានឥទ្ធិពលខ្ពស់មួយចំនួន ដែល AI ជំនាន់មុនអាចជួយដល់ប្រតិបត្តិការសុវត្ថិភាពរបស់អ្នកភ្លាមៗ (ប្រហែលជា alert triage ឬការវិភាគកំណត់ហេតុដោយស្វ័យប្រវត្តិ) និងដំណើរការគម្រោងសាកល្បង។ បង្កើនការការពាររបស់អ្នកជាមួយនឹងល្បឿន និងមាត្រដ្ឋានរបស់ AI ដើម្បីទប់ទល់នឹងការគំរាមកំហែងដែលមានចលនាលឿន ( តើ AI ជំនាន់មុនអាចត្រូវបានប្រើប្រាស់ក្នុងសុវត្ថិភាពតាមអ៊ីនធឺណិតយ៉ាងដូចម្តេច? 10 គំរូពិភពលោកពិត ) ។ សូម្បីតែការរួមបញ្ចូលដ៏សាមញ្ញ ដូចជាការប្រើប្រាស់ AI ដើម្បីសង្ខេបរបាយការណ៍មេរោគ ឬបង្កើតសំណួរស្វែងរកការគំរាមកំហែង អាចជួយអ្នកវិភាគជាច្រើនម៉ោង។ ចាប់ផ្តើមតូច វាយតម្លៃលទ្ធផល និងធ្វើម្តងទៀត។ ភាពជោគជ័យនឹងបង្កើតករណីសម្រាប់ការទទួលយក AI កាន់តែទូលំទូលាយ។ គោលដៅគឺប្រើប្រាស់ AI ជាមេគុណកម្លាំង – ឧទាហរណ៍ ប្រសិនបើការវាយប្រហារដោយបន្លំកំពុងគ្របដណ្តប់លើតុជំនួយរបស់អ្នក សូមដាក់ពង្រាយកម្មវិធីចាត់ថ្នាក់អ៊ីមែល AI ដើម្បីកាត់បន្ថយបរិមាណនោះចុះយ៉ាងសកម្ម។

  5. វិនិយោគលើការអនុវត្ត AI ប្រកបដោយសុវត្ថិភាព និងសីលធម៌៖ នៅពេលអនុវត្ត AI ជំនាន់នោះ សូមអនុវត្តតាមការអភិវឌ្ឍន៍ប្រកបដោយសុវត្ថិភាព និងការអនុវត្តការដាក់ឱ្យប្រើប្រាស់។ ប្រើ គំរូឯកជន ឬបង្ហោះដោយខ្លួនឯង សម្រាប់កិច្ចការរសើប ដើម្បីរក្សាការគ្រប់គ្រងលើទិន្នន័យ។ ប្រសិនបើប្រើប្រាស់សេវាកម្ម AI ភាគីទីបី សូមពិនិត្យមើលវិធានការសុវត្ថិភាព និងឯកជនភាពរបស់ពួកគេ (ការអ៊ិនគ្រីប គោលការណ៍រក្សាទិន្នន័យ។ល។)។ បញ្ចូលក្របខណ្ឌគ្រប់គ្រងហានិភ័យ AI (ដូចជា AI Risk Framework ឬការណែនាំ ISO/IEC របស់ NIST) ដើម្បីដោះស្រាយជាប្រព័ន្ធដូចជាភាពលំអៀង ការពន្យល់ និងភាពរឹងមាំនៅក្នុងឧបករណ៍ AI របស់អ្នក (តើ AI ជំនាន់ថ្មីអាចប្រើក្នុងសុវត្ថិភាពតាមអ៊ីនធឺណិតបានដោយរបៀបណា? 10 Real-World Examples ) ។ ក៏មានគម្រោងសម្រាប់ការអាប់ដេត/បំណះគំរូជាផ្នែកនៃការថែទាំ – ម៉ូដែល AI អាចមាន “ភាពងាយរងគ្រោះ” ផងដែរ (ឧទាហរណ៍ ពួកគេប្រហែលជាត្រូវការការហ្វឹកហាត់ឡើងវិញ ប្រសិនបើពួកគេចាប់ផ្តើមរសាត់ ឬប្រសិនបើប្រភេទថ្មីនៃការវាយប្រហារដោយសត្រូវលើម៉ូដែលត្រូវបានរកឃើញ)។ តាមរយៈការបញ្ចូលសុវត្ថិភាព និងក្រមសីលធម៌ទៅក្នុងការប្រើប្រាស់ AI របស់អ្នក អ្នកបង្កើតទំនុកចិត្តលើលទ្ធផល និងធានាបាននូវការអនុលោមតាមបទប្បញ្ញត្តិដែលកំពុងកើតមាន។

  6. រក្សាមនុស្សនៅក្នុងរង្វិលជុំ៖ ប្រើ AI ដើម្បីជួយ មិនមែនជំនួសទាំងស្រុងទេ ការវិនិច្ឆ័យរបស់មនុស្សនៅក្នុងសុវត្ថិភាពអ៊ីនធឺណិត។ កំណត់ចំណុចនៃការសម្រេចចិត្តដែលតម្រូវឲ្យមានសុពលភាពរបស់មនុស្ស (ឧទាហរណ៍ AI អាចនឹងព្រាងរបាយការណ៍ឧប្បត្តិហេតុ ប៉ុន្តែអ្នកវិភាគពិនិត្យមើលវាមុនពេលចែកចាយ ឬ AI អាចស្នើឱ្យបិទគណនីអ្នកប្រើប្រាស់ ប៉ុន្តែមនុស្សអនុម័តសកម្មភាពនោះ)។ នេះមិនត្រឹមតែការពារកំហុស AI ពីការមិនត្រួតពិនិត្យប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងជួយក្រុមរបស់អ្នករៀនពី AI និងច្រាសមកវិញផងដែរ។ លើកទឹកចិត្តដល់លំហូរការងារដែលសហការគ្នា៖ អ្នកវិភាគគួរតែមានអារម្មណ៍ស្រួលក្នុងការសាកសួរលទ្ធផល AI និងអនុវត្តការត្រួតពិនិត្យអនាម័យ។ យូរៗទៅ ប្រអប់នេះអាចកែលម្អទាំង AI (តាមរយៈមតិកែលម្អ) និងជំនាញរបស់អ្នកវិភាគ។ ជាសំខាន់ រចនាដំណើរការរបស់អ្នកដូចជា AI និងភាពខ្លាំងរបស់មនុស្សបំពេញគ្នាទៅវិញទៅមក – AI គ្រប់គ្រងបរិមាណ និងល្បឿន មនុស្សដោះស្រាយភាពមិនច្បាស់លាស់ និងការសម្រេចចិត្តចុងក្រោយ។

  7. ការវាស់វែង ត្រួតពិនិត្យ និងកែតម្រូវ៖ ជាចុងក្រោយ ចាត់ទុកឧបករណ៍ AI ជំនាន់ថ្មីរបស់អ្នកជាធាតុផ្សំនៃការរស់នៅនៃប្រព័ន្ធអេកូសុវត្ថិភាពរបស់អ្នក។ វាស់ស្ទង់ការអនុវត្តរបស់ពួកគេ ជាបន្តបន្ទាប់ – តើពួកគេកាត់បន្ថយពេលវេលាឆ្លើយតបឧប្បត្តិហេតុដែរឬទេ? ចាប់​គំរាម​មុន? តើអត្រាវិជ្ជមានក្លែងក្លាយមាននិន្នាការយ៉ាងដូចម្តេច? ស្នើសុំមតិកែលម្អពីក្រុម៖ តើការណែនាំរបស់ AI មានប្រយោជន៍ ឬវាបង្កើតសំឡេងរំខាន? ប្រើរង្វាស់ទាំងនេះដើម្បីកែលម្អគំរូ ធ្វើបច្ចុប្បន្នភាពទិន្នន័យបណ្តុះបណ្តាល ឬកែតម្រូវរបៀបដែល AI ត្រូវបានរួមបញ្ចូល។ ការគំរាមកំហែងតាមអ៊ីនធឺណិត និងតម្រូវការអាជីវកម្មមានការវិវឌ្ឍ ហើយគំរូ AI របស់អ្នកគួរតែត្រូវបានធ្វើបច្ចុប្បន្នភាព ឬបណ្តុះបណ្តាលឡើងវិញជាទៀងទាត់ ដើម្បីរក្សាប្រសិទ្ធភាព។ មានផែនការសម្រាប់អភិបាលកិច្ចគំរូ រួមទាំងអ្នកដែលទទួលខុសត្រូវចំពោះការថែទាំរបស់វា និងថាតើវាត្រូវបានពិនិត្យញឹកញាប់ប៉ុណ្ណា។ តាមរយៈការគ្រប់គ្រងយ៉ាងសកម្មនូវវដ្តជីវិតរបស់ AI អ្នកធានាថាវានៅតែជាទ្រព្យសកម្ម មិនមែនជាការទទួលខុសត្រូវទេ។

សរុបសេចក្តីមក AI ជំនាន់ថ្មីអាចបង្កើនសមត្ថភាពសន្តិសុខតាមអ៊ីនធឺណិតយ៉ាងសំខាន់ ប៉ុន្តែការអនុម័តដោយជោគជ័យទាមទារឱ្យមានផែនការគិតគូរ និងការត្រួតពិនិត្យជាបន្ត។ អាជីវកម្មដែលអប់រំមនុស្សរបស់ពួកគេ កំណត់គោលការណ៍ណែនាំច្បាស់លាស់ និងរួមបញ្ចូល AI តាមរបៀបប្រកបដោយតុល្យភាព និងសុវត្ថិភាព នឹងទទួលបានរង្វាន់នៃការគ្រប់គ្រងការគំរាមកំហែងកាន់តែលឿន និងឆ្លាតវៃ។ ការទទួលយកទាំងនោះផ្តល់នូវផែនទីបង្ហាញផ្លូវ៖ រួមបញ្ចូលគ្នានូវជំនាញរបស់មនុស្សជាមួយនឹងស្វ័យប្រវត្តិកម្ម AI គ្របដណ្តប់លើមូលដ្ឋាននៃអភិបាលកិច្ច និងរក្សាភាពរហ័សរហួន ខណៈដែលបច្ចេកវិទ្យា AI និងទិដ្ឋភាពគំរាមកំហែងមានការវិវត្តដោយជៀសមិនរួច។

តាមរយៈការចាត់វិធានការជាក់ស្តែងទាំងនេះ អង្គការនានាអាចឆ្លើយសំណួរដោយទំនុកចិត្តថា "តើ AI ជំនាន់ថ្មីអាចត្រូវប្រើក្នុងសុវត្ថិភាពតាមអ៊ីនធឺណិតដោយរបៀបណា?" – មិនត្រឹមតែនៅក្នុងទ្រឹស្តីប៉ុណ្ណោះទេ ប៉ុន្តែនៅក្នុងការអនុវត្តប្រចាំថ្ងៃ – ហើយដោយហេតុនេះពង្រឹងការការពាររបស់ពួកគេនៅក្នុងពិភពឌីជីថល និង AI ដែលជំរុញកាន់តែខ្លាំងឡើងរបស់យើង។ ( តើ AI ជំនាន់ថ្មីអាចប្រើក្នុងសុវត្ថិភាពតាមអ៊ីនធឺណិតបានដោយរបៀបណា )

ឯកសារ​ស​ដែល​អ្នក​ប្រហែល​ជា​ចង់​អាន​បន្ទាប់​ពី​ឯកសារ​នេះ៖

🔗 ការងារដែល AI មិនអាចជំនួសបាន ហើយតើ AI នឹងជំនួសការងារអ្វី?
ស្វែងយល់ពីទស្សនវិស័យជាសកលថាតើតួនាទីណាដែលមានសុវត្ថិភាពពីស្វ័យប្រវត្តិកម្ម និងមួយណាដែលមិនមាន។

🔗 AI អាចទស្សន៍ទាយទីផ្សារភាគហ៊ុនបានទេ?
ការក្រឡេកមើលកាន់តែដិតដល់ទៅលើដែនកំណត់ ការទម្លាយ និងអាថ៌កំបាំងជុំវិញសមត្ថភាពរបស់ AI ក្នុងការព្យាករណ៍ការផ្លាស់ប្តូរទីផ្សារ។

🔗 តើ AI ជំនាន់​ថ្មី​អាច​ពឹង​ផ្អែក​លើ​អ្វី​បាន​ដោយ​គ្មាន​ការ​ធ្វើ​អន្តរាគមន៍​ពី​មនុស្ស?
ស្វែងយល់ពីកន្លែងដែល AI អាចដំណើរការដោយឯករាជ្យ និងកន្លែងដែលការត្រួតពិនិត្យរបស់មនុស្សនៅតែចាំបាច់។

ត្រឡប់ទៅប្លុកវិញ