ចម្លើយខ្លី៖ បញ្ញាសិប្បនិម្មិត (AI) ត្រូវបានលក់លើសកម្រិត នៅពេលដែលវាត្រូវបានផ្សព្វផ្សាយថាល្អឥតខ្ចោះ មិនបាច់ប្រើដៃ ឬជំនួសការងារ។ វាមិនត្រូវបានលក់លើសកម្រិតទេ នៅពេលដែលប្រើជាឧបករណ៍ត្រួតពិនិត្យសម្រាប់ការព្រាង ការគាំទ្រការសរសេរកូដ ការជ្រើសរើស និងការរុករកទិន្នន័យ។ ប្រសិនបើអ្នកត្រូវការការពិត អ្នកត្រូវតែដាក់វានៅក្នុងប្រភពដែលបានផ្ទៀងផ្ទាត់ ហើយបន្ថែមការពិនិត្យឡើងវិញ។ នៅពេលដែលហានិភ័យកើនឡើង អភិបាលកិច្ចក៏សំខាន់ផងដែរ។
អត្ថបទដែលអ្នកប្រហែលជាចង់អានបន្ទាប់ពីអត្ថបទនេះ៖
ចំណុចសំខាន់ៗ៖
សញ្ញានៃការនិយាយបំផ្លើស ៖ ចាត់ទុកការអះអាង “ស្វ័យភាពពេញលេញ” និង “ភាពត្រឹមត្រូវឥតខ្ចោះក្នុងពេលឆាប់ៗនេះ” ជាសញ្ញាព្រមាន។
ភាពជឿជាក់ ៖ រំពឹងថានឹងមានចម្លើយខុសដោយទំនុកចិត្ត។ តម្រូវឱ្យមានការទាញយកមកវិញ ការផ្ទៀងផ្ទាត់ និងការពិនិត្យឡើងវិញដោយមនុស្ស។
ករណីប្រើប្រាស់ល្អ ៖ ជ្រើសរើសកិច្ចការតូចចង្អៀត ដែលអាចធ្វើម្តងទៀតបាន ជាមួយនឹងរង្វាស់ជោគជ័យច្បាស់លាស់ និងហានិភ័យទាប។
ការទទួលខុសត្រូវ ៖ ចាត់តាំងម្ចាស់ជាមនុស្សសម្រាប់លទ្ធផល ការពិនិត្យ និងអ្វីដែលកើតឡើងនៅពេលដែលវាខុស។
អភិបាលកិច្ច ៖ ប្រើប្រាស់ក្របខ័ណ្ឌ និងការអនុវត្តការបង្ហាញព័ត៌មានអំពីឧប្បត្តិហេតុ នៅពេលដែលមានពាក់ព័ន្ធនឹងប្រាក់ សុវត្ថិភាព ឬសិទ្ធិ។
🔗 តើ AI មួយណាដែលសាកសមនឹងអ្នក?
ប្រៀបធៀបឧបករណ៍ AI ទូទៅតាមគោលដៅ ថវិកា និងភាពងាយស្រួល។.
🔗 តើមានពពុះ AI កំពុងបង្កើតដែរឬទេ?
សញ្ញានៃការផ្សព្វផ្សាយបំផ្លើស ហានិភ័យ និងរូបរាងនៃកំណើនប្រកបដោយចីរភាព។.
🔗 តើឧបករណ៍ចាប់សញ្ញា AI អាចទុកចិត្តបានសម្រាប់ការប្រើប្រាស់ក្នុងពិភពពិតដែរឬទេ?
ដែនកំណត់ភាពត្រឹមត្រូវ ផលវិជ្ជមានមិនពិត និងគន្លឹះសម្រាប់ការវាយតម្លៃដោយយុត្តិធម៌។.
🔗 របៀបប្រើប្រាស់ AI នៅលើទូរស័ព្ទរបស់អ្នកជារៀងរាល់ថ្ងៃ
ប្រើប្រាស់កម្មវិធីទូរស័ព្ទ ជំនួយការសំឡេង និងសារជំរុញដើម្បីសន្សំសំចៃពេលវេលា។.
អ្វីដែលមនុស្សតែងតែចង់មានន័យនៅពេលពួកគេនិយាយថា "AI ត្រូវបានផ្សព្វផ្សាយហួសហេតុពេក" 🤔
នៅពេលដែលនរណាម្នាក់និយាយថា AI ត្រូវបានផ្សព្វផ្សាយហួសហេតុពេក ជាធម្មតាពួកគេកំពុងមានប្រតិកម្មចំពោះភាពមិនស៊ីសង្វាក់គ្នាមួយ (ឬច្រើន) ទាំងនេះ៖
-
ការសន្យាផ្នែកទីផ្សារធៀបនឹងការពិតប្រចាំថ្ងៃ
ការបង្ហាញសាកល្បងមើលទៅអស្ចារ្យ។ ការដាក់ឱ្យប្រើប្រាស់មានអារម្មណ៍ដូចជាកាសែតបិទជិត និងការអធិស្ឋាន។ -
សមត្ថភាព ទល់នឹង ភាពជឿជាក់
វាអាចសរសេរកំណាព្យ បកប្រែកិច្ចសន្យា បំបាត់កំហុសកូដ... ហើយបន្ទាប់មកបង្កើតតំណភ្ជាប់គោលនយោបាយដោយទំនុកចិត្ត។ ឡូយ ឡូយ ឡូយ។ -
វឌ្ឍនភាព ធៀបនឹង ការអនុវត្តជាក់ស្តែង
គំរូមានភាពប្រសើរឡើងយ៉ាងឆាប់រហ័ស ប៉ុន្តែការរួមបញ្ចូលពួកវាទៅក្នុងដំណើរការអាជីវកម្មដែលស្មុគស្មាញគឺយឺត នយោបាយ និងពោរពេញដោយករណីមិនអំណោយផល។ -
រឿងរ៉ាវ "ជំនួសមនុស្ស"
ជ័យជម្នះពិតប្រាកដភាគច្រើនមើលទៅដូចជា "ដកចេញនូវផ្នែកដែលគួរឱ្យធុញទ្រាន់" ជាជាង "ជំនួសការងារទាំងមូល"។
ហើយនោះហើយជាភាពតានតឹងស្នូល៖ បញ្ញាសិប្បនិម្មិត (AI) ពិតជាមានឥទ្ធិពលខ្លាំងមែន ប៉ុន្តែជារឿយៗវាត្រូវបានគេលក់ដូចជាវាបានបញ្ចប់រួចហើយ។ វាមិនទាន់បានបញ្ចប់នៅឡើយទេ។ វា… កំពុងដំណើរការ។ ដូចជាផ្ទះមួយដែលមានបង្អួចដ៏ស្រស់ស្អាត និងគ្មានបំពង់ទឹក 🚽។

ហេតុអ្វីបានជាការអះអាងអំពី AI ដែលបំផ្លើសកើតឡើងយ៉ាងងាយស្រួល (ហើយនៅតែបន្តកើតឡើង) 🎭
ហេតុផលមួយចំនួនដែល AI ទាក់ទាញការអះអាងដែលបំផ្លើសដូចជាមេដែក៖
ការបង្ហាញជាទូទៅគឺបោកប្រាស់ (តាមរបៀបដ៏ល្អបំផុត)
ការបង្ហាញត្រូវបានរៀបចំយ៉ាងល្អិតល្អន់។ ការណែនាំត្រូវបានកែសម្រួល។ ទិន្នន័យគឺស្អាត។ សេណារីយ៉ូករណីល្អបំផុតទទួលបានការចាប់អារម្មណ៍ ហើយករណីបរាជ័យគឺការញ៉ាំនំកែកឃឺនៅពីក្រោយឆាក។.
ភាពលំអៀងនៃការរស់រានមានជីវិតគឺខ្លាំង
រឿងរ៉ាវ “បញ្ញាសិប្បនិម្មិត (AI) បានជួយសង្គ្រោះយើងមួយលានម៉ោង” កំពុងល្បីពេញអ៊ីនធឺណិត។ រឿងរ៉ាវ “បញ្ញាសិប្បនិម្មិត (AI) បានធ្វើឲ្យយើងសរសេរអ្វីៗគ្រប់យ៉ាងឡើងវិញពីរដង” ត្រូវបានកប់យ៉ាងស្ងាត់ៗនៅក្នុងថតឯកសារគម្រោងរបស់នរណាម្នាក់ដែលមានឈ្មោះថា “ការពិសោធន៍ត្រីមាសទី 3” 🫠
មនុស្សច្រឡំភាពស្ទាត់ជំនាញជាមួយនឹងការពិត
បញ្ញាសិប្បនិម្មិត (AI) ទំនើបអាចស្តាប់ទៅដូចជាមានទំនុកចិត្ត មានប្រយោជន៍ និងជាក់លាក់ ដែលបញ្ឆោតខួរក្បាលរបស់យើងឱ្យសន្មតថាវាត្រឹមត្រូវ។.
មធ្យោបាយដ៏សំខាន់មួយដើម្បីពិពណ៌នាអំពីរបៀបបរាជ័យនេះគឺ ការសន្និដ្ឋាន ៖ បញ្ជាក់ដោយមានទំនុកចិត្តប៉ុន្តែទិន្នផលខុស (ហៅម្យ៉ាងទៀតថា "ការយល់ច្រឡំ")។ NIST ហៅរឿងនេះដោយផ្ទាល់ថាជាហានិភ័យសំខាន់សម្រាប់ប្រព័ន្ធ AI ដែលបង្កើតឡើង។ [1]
លុយបង្កើនសំឡេងមេហ្គាហ្វូន
នៅពេលដែលថវិកា ការវាយតម្លៃ និងការលើកទឹកចិត្តអាជីពស្ថិតក្នុងស្ថានភាពមិនប្រាកដប្រជា មនុស្សគ្រប់គ្នាមានហេតុផលដើម្បីនិយាយថា "រឿងនេះផ្លាស់ប្តូរអ្វីៗគ្រប់យ៉ាង" (ទោះបីជាវាភាគច្រើនផ្លាស់ប្តូរស្លាយក៏ដោយ)។.
គំរូ “អតិផរណា → ការខកចិត្ត → តម្លៃស្ថិរភាព” (ហើយហេតុអ្វីបានជាវាមិនមានន័យថា AI ក្លែងក្លាយ) 📈😬
បច្ចេកវិទ្យាជាច្រើនធ្វើតាមអារម្មណ៍ដូចគ្នា៖
-
ការរំពឹងទុកខ្ពស់បំផុត (អ្វីៗគ្រប់យ៉ាងនឹងត្រូវបានធ្វើស្វ័យប្រវត្តិកម្មនៅថ្ងៃអង្គារ)
-
ការពិតដ៏លំបាក (វាបែកនៅថ្ងៃពុធ)
-
តម្លៃស្ថិរភាព (វាក្លាយជាផ្នែកមួយនៃរបៀបដែលការងារត្រូវបានធ្វើដោយស្ងាត់ៗ)
ដូច្នេះបាទ/ចាស៎ - បញ្ញាសិប្បនិម្មិតអាចត្រូវបានលក់លើសកម្រិត ខណៈពេលដែលនៅតែជាកត្តាសំខាន់។ ទាំងនោះមិនមែនជារឿងផ្ទុយគ្នាទេ។ ពួកគេជាមិត្តរួមបន្ទប់។
កន្លែងដែល AI មិនត្រូវបានគេផ្សព្វផ្សាយហួសហេតុពេក (វាកំពុងផ្តល់សេវាកម្ម) ✅✨
នេះជាផ្នែកដែលត្រូវបានខកខានព្រោះវាមិនសូវជាប្រឌិតបែបវិទ្យាសាស្ត្រទេ ប៉ុន្តែវាមានលក្ខណៈជាសៀវភៅបញ្ជីច្រើនជាង។.
ជំនួយក្នុងការសរសេរកូដគឺជាការជំរុញផលិតភាពពិតប្រាកដ
សម្រាប់ភារកិច្ចមួយចំនួន - ការរចនាប្រព័ន្ធប្រតិបត្តិការ ការធ្វើតេស្តរន្ទា លំនាំដដែលៗ - អ្នកបើកកូដរួមអាចអនុវត្តជាក់ស្តែងបាន។.
ការពិសោធន៍ត្រួតពិនិត្យដែលត្រូវបានដកស្រង់យ៉ាងទូលំទូលាយពី GitHub បានរកឃើញថា អ្នកអភិវឌ្ឍន៍ដែលប្រើប្រាស់ Copilot បានបញ្ចប់កិច្ចការសរសេរកូដ លឿនជាងមុន (ការសរសេររបស់ពួកគេរាយការណ៍ពី ការបង្កើនល្បឿន 55% នៅក្នុងការសិក្សាជាក់លាក់នោះ)។ [3]
មិនមែនជាវេទមន្តទេ ប៉ុន្តែមានអត្ថន័យ។ ចំណុចសំខាន់គឺអ្នកនៅតែត្រូវពិនិត្យមើលអ្វីដែលវាសរសេរ… ពីព្រោះពាក្យ “មានប្រយោជន៍” មិនដូចគ្នានឹងពាក្យ “ត្រឹមត្រូវ” ទេ។
ការរៀបចំសេចក្តីព្រាង ការសង្ខេប និងការគិតជាមុន
AI ពូកែខាង៖
-
ប្រែក្លាយកំណត់ចំណាំរដុបទៅជាសេចក្តីព្រាងស្អាត ✍️
-
សង្ខេបឯកសារវែងៗ
-
ជម្រើសបង្កើត (ចំណងជើង គ្រោង វ៉ារ្យ៉ង់អ៊ីមែល)
-
សម្លេងបកប្រែ (“ធ្វើឱ្យវាមិនសូវហឹរ” 🌶️)
វាជាជំនួយការថ្នាក់ក្រោមដែលមិនចេះនឿយហត់ ដែលពេលខ្លះកុហក ដូច្នេះអ្នកត្រូវត្រួតពិនិត្យ។ (ឃោរឃៅ។ ក៏ត្រឹមត្រូវដែរ។)
ការជ្រើសរើសការគាំទ្រអតិថិជន និងផ្នែកជំនួយផ្ទៃក្នុង
កន្លែងដែល AI មានទំនោរដំណើរការល្អបំផុត៖ ចាត់ថ្នាក់ → ទាញយក → ស្នើ មិនមែន បង្កើត → សង្ឃឹម → ដាក់ពង្រាយទេ ។
ប្រសិនបើអ្នកចង់បានកំណែខ្លី និងមានសុវត្ថិភាព៖ សូមប្រើ AI ដើម្បី ទាញយកពីប្រភពដែលត្រូវបានអនុម័ត និងព្រាងការឆ្លើយតប ប៉ុន្តែត្រូវរក្សាមនុស្សឱ្យទទួលខុសត្រូវចំពោះអ្វីដែលបញ្ជូន - ជាពិសេសនៅពេលដែលហានិភ័យកើនឡើង។ ឥរិយាបថ "គ្រប់គ្រង + សាកល្បង + បង្ហាញឧប្បត្តិហេតុ" នោះស្ថិតនៅយ៉ាងស្អាតជាមួយនឹងរបៀបដែល NIST កំណត់រចនាសម្ព័ន្ធការគ្រប់គ្រងហានិភ័យ AI ដែលអាចបង្កើតបាន។ [1]
ការរុករកទិន្នន័យ - ជាមួយនឹងរបាំងការពារ
បញ្ញាសិប្បនិម្មិត (AI) អាចជួយមនុស្សសាកសួរសំណុំទិន្នន័យ ពន្យល់តារាង និងបង្កើតគំនិត "អ្វីដែលត្រូវមើលបន្ទាប់"។ ជ័យជម្នះគឺធ្វើឱ្យការវិភាគកាន់តែងាយស្រួលចូលដំណើរការ មិនមែនជំនួសអ្នកវិភាគនោះទេ។.
កន្លែងដែល AI ត្រូវបានផ្សព្វផ្សាយហួសហេតុ (ហើយហេតុអ្វីបានជាវានៅតែខកចិត្ត) ❌🤷
«ភ្នាក់ងារស្វ័យភាពពេញលេញដែលដំណើរការអ្វីៗគ្រប់យ៉ាង»
ភ្នាក់ងារអាចធ្វើលំហូរការងារបានយ៉ាងស្អាត។ ប៉ុន្តែនៅពេលដែលអ្នកបន្ថែម៖
-
ជំហានច្រើន
-
ឧបករណ៍រញ៉េរញ៉ៃ
-
ការអនុញ្ញាត
-
អ្នកប្រើប្រាស់ពិតប្រាកដ
-
ផលវិបាកពិតប្រាកដ
...របៀបបរាជ័យកើនឡើងទ្វេដងដូចទន្សាយ។ ដំបូងឡើយគួរឲ្យស្រលាញ់ បន្ទាប់មកអ្នកនឹងមានអារម្មណ៍ហួសចិត្ត🐇
ច្បាប់ជាក់ស្តែងមួយ៖ កាលណាអ្វីមួយអះអាងថា "មិនប្រើដៃ" កាន់តែច្រើន អ្នកកាន់តែគួរសួរថាមានអ្វីកើតឡើងនៅពេលវាខូច។.
«វានឹងត្រឹមត្រូវឥតខ្ចោះក្នុងពេលឆាប់ៗនេះ»
ពិតណាស់ ភាពត្រឹមត្រូវមានភាពប្រសើរឡើង ប៉ុន្តែភាពជឿជាក់គឺរអិលណាស់ - ជាពិសេសនៅពេលដែលគំរូមួយ មិនមានមូលដ្ឋាន លើប្រភពដែលអាចផ្ទៀងផ្ទាត់បាន។
នោះហើយជាមូលហេតុដែលការងារ AI ដ៏ធ្ងន់ធ្ងរបញ្ចប់ទៅដូចជា៖ ការទាញយក + ការផ្ទៀងផ្ទាត់ + ការត្រួតពិនិត្យ + ការពិនិត្យឡើងវិញដោយមនុស្ស មិនមែន "គ្រាន់តែជំរុញវាឱ្យខ្លាំងជាងនេះទេ"។ (ទម្រង់ GenAI របស់ NIST ទំនាក់ទំនងនេះដោយការទទូចដ៏គួរសម និងស្ថិរភាព។) [1]
«គំរូមួយដើម្បីគ្រប់គ្រងពួកគេទាំងអស់»
នៅក្នុងការអនុវត្តជាក់ស្តែង ក្រុមជារឿយៗបញ្ចប់ដោយការលាយបញ្ចូលគ្នា៖
-
ម៉ូដែលតូចៗសម្រាប់កិច្ចការថោក/បរិមាណច្រើន
-
ម៉ូដែលធំៗសម្រាប់ការវែកញែកពិបាកជាង
-
ការទាញយកចម្លើយដែលមានមូលដ្ឋាន
-
ច្បាប់សម្រាប់ព្រំដែនអនុលោមភាព
ទោះជាយ៉ាងណាក៏ដោយ គំនិត "ខួរក្បាលវេទមន្តតែមួយ" លក់ដាច់ណាស់។ វាមានរបៀបរៀបរយ។ មនុស្សចូលចិត្តរបៀបរៀបរយ។.
«ជំនួសតួនាទីការងារទាំងមូលពេញមួយយប់»
តួនាទីភាគច្រើនគឺជាបណ្តុំនៃភារកិច្ច។ បញ្ញាសិប្បនិម្មិត (AI) អាចកំទេចផ្នែកមួយនៃភារកិច្ចទាំងនោះ ហើយស្ទើរតែមិនប៉ះពាល់ដល់អ្វីដែលនៅសល់។ ផ្នែករបស់មនុស្ស - ការវិនិច្ឆ័យ ការទទួលខុសត្រូវ ទំនាក់ទំនង បរិបទ - នៅតែរឹងរូស...ជាមនុស្ស។.
យើងចង់បានអ្នកធ្វើការរួមគ្នាដោយមនុស្សយន្ត។ ផ្ទុយទៅវិញ យើងទទួលបានការបំពេញដោយស្វ័យប្រវត្តិលើស្តេរ៉ូអ៊ីត។.
អ្វីដែលធ្វើឱ្យករណីប្រើប្រាស់ AI ល្អ (និងអាក្រក់) 🧪🛠️
នេះជាផ្នែកដែលមនុស្សរំលង ហើយបន្ទាប់មកស្ដាយក្រោយ។.
ករណី ប្រើប្រាស់ AI ដ៏ល្អ ជាធម្មតាមាន៖
-
លក្ខណៈវិនិច្ឆ័យជោគជ័យច្បាស់លាស់ (សន្សំសំចៃពេលវេលា កាត់បន្ថយកំហុស ល្បឿនឆ្លើយតបប្រសើរឡើង)
-
ហានិភ័យទាបទៅមធ្យម (ឬការពិនិត្យឡើងវិញដោយមនុស្សខ្លាំង)
-
លំនាំដែលអាចធ្វើម្តងទៀតបាន (ចម្លើយចំពោះសំណួរដែលសួរញឹកញាប់ លំហូរការងារទូទៅ ឯកសារស្តង់ដារ)
-
ការចូលប្រើប្រាស់ទិន្នន័យល្អ (និងការអនុញ្ញាតឱ្យប្រើប្រាស់វា)
-
ផែនការបម្រុង នៅពេលដែលគំរូបង្ហាញលទ្ធផលមិនសមហេតុផល
-
ដំបូងឡើយ វិសាលភាពតូចចង្អៀត
ករណី ប្រើប្រាស់ AI មិនល្អ ជាធម្មតាមើលទៅដូចនេះ៖
-
«ចូរយើងធ្វើការសម្រេចចិត្តដោយស្វ័យប្រវត្តិ» ដោយគ្មានការទទួលខុសត្រូវ 😬
-
«យើងគ្រាន់តែដោតវាចូលទៅក្នុងអ្វីៗគ្រប់យ៉ាង» (ទេ… សូមកុំ)
-
គ្មានរង្វាស់មូលដ្ឋានទេ ដូច្នេះគ្មាននរណាម្នាក់ដឹងថាវាបានជួយឬអត់
-
រំពឹងថាវានឹងក្លាយជាម៉ាស៊ីនសច្ចភាពជំនួសឱ្យម៉ាស៊ីនគំរូ
ប្រសិនបើអ្នកគ្រាន់តែចងចាំរឿងមួយប៉ុណ្ណោះ៖ បញ្ញាសិប្បនិម្មិត (AI) ងាយស្រួលទុកចិត្តបំផុត នៅពេលដែលវាមានមូលដ្ឋានលើប្រភពដែលបានផ្ទៀងផ្ទាត់របស់អ្នក និងត្រូវបានកំណត់ចំពោះការងារដែលបានកំណត់យ៉ាងច្បាស់លាស់។ បើមិនដូច្នោះទេ វាគឺជាការគណនាដែលមានមូលដ្ឋានលើ vibes។
វិធីសាមញ្ញមួយ (ប៉ុន្តែមានប្រសិទ្ធភាពខ្លាំង) ដើម្បីពិនិត្យមើលការពិតនៃ AI នៅក្នុងអង្គការរបស់អ្នក 🧾✅
ប្រសិនបើអ្នកចង់បានចម្លើយដែលមានមូលដ្ឋាន (មិនមែនចម្លើយក្តៅៗទេ) សូមដំណើរការការធ្វើតេស្តរហ័សនេះ៖
១) កំណត់ការងារដែលអ្នកកំពុងជួល AI ឲ្យធ្វើ
សរសេរវាដូចជាការពិពណ៌នាការងារ៖
-
ធាតុចូល
-
លទ្ធផល
-
ការរឹតបន្តឹង
-
«រួចរាល់ហើយ មានន័យថា...»
ប្រសិនបើអ្នកមិនអាចពិពណ៌នាវាឱ្យច្បាស់លាស់បានទេ AI នឹងមិនបញ្ជាក់វាឱ្យច្បាស់លាស់ដោយអព្ភូតហេតុនោះទេ។.
២) បង្កើតមូលដ្ឋានគ្រឹះ
តើវាត្រូវចំណាយពេលប៉ុន្មានឥឡូវនេះ? តើមានកំហុសប៉ុន្មានឥឡូវនេះ? តើពាក្យ «ល្អ» មានរូបរាងយ៉ាងណាឥឡូវនេះ?
គ្មានមូលដ្ឋានគ្រឹះ = សង្គ្រាមមតិគ្មានទីបញ្ចប់នៅពេលក្រោយ។ និយាយឲ្យចំទៅ មនុស្សនឹងឈ្លោះប្រកែកគ្នាជារៀងរហូត ហើយអ្នកនឹងចាស់ទៅយ៉ាងឆាប់រហ័ស។.
៣) សម្រេចចិត្តថាសេចក្តីពិតមកពីណា
-
មូលដ្ឋានចំណេះដឹងផ្ទៃក្នុង?
-
កំណត់ត្រាអតិថិជន?
-
គោលនយោបាយដែលត្រូវបានអនុម័ត?
-
សំណុំឯកសារដែលបានរៀបចំយ៉ាងយកចិត្តទុកដាក់?
ប្រសិនបើចម្លើយគឺ "ម៉ូដែលនឹងដឹង" នោះជាទង់ក្រហម 🚩
៤) កំណត់ផែនការមនុស្សនៅក្នុងរង្វិលជុំ
សម្រេចចិត្ត៖
-
អ្នកណាជាអ្នកវាយតម្លៃ,
-
នៅពេលដែលពួកគេពិនិត្យឡើងវិញ
-
និងអ្វីដែលកើតឡើងនៅពេលដែល AI ខុស។.
នេះគឺជាភាពខុសគ្នារវាងពាក្យ «ឧបករណ៍» និង «ការទទួលខុសត្រូវ»។ មិនមែនជានិច្ចទេ ប៉ុន្តែជាញឹកញាប់។.
៥) គូសផែនទីកាំនៃការផ្ទុះ
ចាប់ផ្តើមនៅកន្លែងដែលកំហុសមានតម្លៃថោក។ ពង្រីកតែបន្ទាប់ពីអ្នកមានភស្តុតាងប៉ុណ្ណោះ។.
នេះជារបៀបដែលអ្នកប្រែក្លាយការអះអាងដែលបំផ្លើសទៅជាប្រយោជន៍។ ធម្មតា... មានប្រសិទ្ធភាព... ស្រស់ស្អាតបន្តិច 😌
ទំនុកចិត្ត ហានិភ័យ និងបទប្បញ្ញត្តិ - ផ្នែកដែលមិនទាក់ទាញដែលសំខាន់ 🧯⚖️
ប្រសិនបើ AI កំពុងចូលទៅក្នុងអ្វីដែលសំខាន់ (មនុស្ស លុយកាក់ សុវត្ថិភាព លទ្ធផលផ្នែកច្បាប់) ការគ្រប់គ្រងមិនមែនជាជម្រើសនោះទេ។.
របាំងការពារមួយចំនួនដែលត្រូវបានយោងយ៉ាងទូលំទូលាយ៖
-
ទម្រង់ AI បង្កើតដោយ NIST (ជាដៃគូជាមួយ AI RMF) ៖ ប្រភេទហានិភ័យជាក់ស្តែង + សកម្មភាពដែលបានស្នើឡើងនៅទូទាំងអភិបាលកិច្ច ការធ្វើតេស្ត ប្រភព និងការបង្ហាញឧប្បត្តិហេតុ។ [1]
-
គោលការណ៍ AI របស់ OECD ៖ មូលដ្ឋានទិន្នន័យអន្តរជាតិដែលប្រើប្រាស់យ៉ាងទូលំទូលាយសម្រាប់ AI ដែលគួរឱ្យទុកចិត្ត និងផ្តោតលើមនុស្ស។ [5]
-
ច្បាប់ AI របស់សហភាពអឺរ៉ុប ៖ ក្របខ័ណ្ឌច្បាប់ដែលផ្អែកលើហានិភ័យ ដែលកំណត់កាតព្វកិច្ចអាស្រ័យលើរបៀបដែល AI ត្រូវបានប្រើប្រាស់ (និងហាមឃាត់ការអនុវត្ត "ហានិភ័យដែលមិនអាចទទួលយកបាន")។ [4]
ហើយមែនហើយ របស់ទាំងនេះអាចមានអារម្មណ៍ដូចជាឯកសារ។ ប៉ុន្តែវាជាភាពខុសគ្នារវាង "ឧបករណ៍ជាក់ស្តែង" និង "អូ៎! យើងបានដាក់ពង្រាយសុបិន្តអាក្រក់នៃការអនុលោមតាមច្បាប់"។
ក្រឡេកមើលឱ្យកាន់តែច្បាស់៖ គំនិត "AI ជាការបំពេញដោយស្វ័យប្រវត្តិ" - ត្រូវបានគេមើលស្រាល ប៉ុន្តែជាការពិត 🧩🧠
នេះជាពាក្យប្រៀបធៀបមួយដែលមិនល្អឥតខ្ចោះបន្តិច (ដែលសមរម្យ)៖ បញ្ញាសិប្បនិម្មិតជាច្រើនគឺដូចជាការបំពេញដោយស្វ័យប្រវត្តិដ៏ប្រណិតមួយ ដែលអានអ៊ីនធឺណិត បន្ទាប់មកភ្លេចកន្លែងដែលវាអានវា។.
ស្តាប់ទៅដូចជាមិនអើពើ ប៉ុន្តែវាក៏ជាមូលហេតុដែលវាដំណើរការដែរ៖
-
ពូកែខាងលំនាំ
-
ពូកែខាងភាសា
-
ពូកែខាងផលិត "រឿងដែលទំនងបន្ទាប់"
ហើយនោះហើយជាមូលហេតុដែលវាបរាជ័យ៖
-
វាមិនមែនជាធម្មជាតិទេដែល «ដឹង» ថាអ្វីជាការពិត
-
វាមិនដឹងថាអង្គការរបស់អ្នកធ្វើអ្វីដោយធម្មជាតិទេ
-
វាអាចបញ្ចេញនូវរឿងមិនសមហេតុសមផលដោយទំនុកចិត្តដោយគ្មានមូលដ្ឋាន (សូមមើល៖ ការយល់ច្រឡំ / ការយល់ច្រឡំ) [1]
ដូច្នេះប្រសិនបើករណីប្រើប្រាស់របស់អ្នកត្រូវការការពិត អ្នកត្រូវចងវាជាមួយនឹងការទាញយកមកវិញ ឧបករណ៍ ការផ្ទៀងផ្ទាត់ ការត្រួតពិនិត្យ និងការពិនិត្យឡើងវិញដោយមនុស្ស។ ប្រសិនបើករណីប្រើប្រាស់របស់អ្នកត្រូវការល្បឿនក្នុងការព្រាង និងការបង្កើតគំនិត អ្នកត្រូវទុកឲ្យវាដំណើរការដោយសេរីជាងនេះបន្តិច។ ការកំណត់ផ្សេងៗគ្នា ការរំពឹងទុកផ្សេងៗគ្នា។ ដូចជាការចម្អិនជាមួយអំបិលដែរ - មិនមែនអ្វីៗទាំងអស់ត្រូវការបរិមាណដូចគ្នានោះទេ។.
តារាងប្រៀបធៀប៖ វិធីជាក់ស្តែងក្នុងការប្រើប្រាស់ AI ដោយមិនចាំបាច់លង់ក្នុងការអះអាងបំផ្លើស 🧠📋
| ឧបករណ៍ / ជម្រើស | ទស្សនិកជន | អារម្មណ៍តម្លៃ | ហេតុអ្វីបានជាវាដំណើរការ |
|---|---|---|---|
| ជំនួយការបែបជជែក (ទូទៅ) | បុគ្គល, ក្រុម | ជាធម្មតា កម្រិតឥតគិតថ្លៃ + បង់ប្រាក់ | ល្អសម្រាប់សេចក្តីព្រាង ការបំផុសគំនិត ការសង្ខេប... ប៉ុន្តែត្រូវផ្ទៀងផ្ទាត់ការពិត (ជានិច្ច) |
| សហអ្នកបើកកូដ | អ្នកអភិវឌ្ឍន៍ | ជាធម្មតាការជាវ | បង្កើនល្បឿនកិច្ចការសរសេរកូដទូទៅ នៅតែត្រូវការការពិនិត្យឡើងវិញ + ការធ្វើតេស្ត និងកាហ្វេ |
| ចម្លើយផ្អែកលើការស្វែងរក “ជាមួយប្រភព” | អ្នកស្រាវជ្រាវ អ្នកវិភាគ | ដូច Freemium | ប្រសើរជាងសម្រាប់ដំណើរការការងារ "ស្វែងរក + ដី" ជាជាងការទាយសុទ្ធសាធ |
| ស្វ័យប្រវត្តិកម្មលំហូរការងារ + AI | ប្រតិបត្តិការ, ការគាំទ្រ | មានជាស្រទាប់ៗ | ប្រែក្លាយជំហានដដែលៗទៅជាលំហូរពាក់កណ្តាលស្វ័យប្រវត្តិ (ពាក់កណ្តាលគឺជាគន្លឹះ) |
| ម៉ូដែលផ្ទៃក្នុង / ការធ្វើជាម្ចាស់ផ្ទះដោយខ្លួនឯង | អង្គការដែលមានសមត្ថភាព ML | អ៊ីនហ្វ្រារ៉េដ + មនុស្ស | ការគ្រប់គ្រងកាន់តែច្រើន + ភាពឯកជន ប៉ុន្តែអ្នកត្រូវចំណាយលើការថែទាំ និងការឈឺក្បាល |
| ក្របខ័ណ្ឌអភិបាលកិច្ច | អ្នកដឹកនាំ ហានិភ័យ ការអនុលោមតាម | ធនធានឥតគិតថ្លៃ | ជួយអ្នកគ្រប់គ្រងហានិភ័យ + ទំនុកចិត្ត មិនមែនជារឿងទាក់ទាញទេ ប៉ុន្តែជារឿងចាំបាច់ |
| ប្រភពសម្រាប់ការវាស់ស្ទង់ភាពពិត / ការពិនិត្យមើលការពិត | ប្រតិបត្តិករ, គោលនយោបាយ, យុទ្ធសាស្ត្រ | ធនធានឥតគិតថ្លៃ | ទិន្នន័យល្អជាងការរំភើប និងកាត់បន្ថយការអធិប្បាយលើ LinkedIn |
| «ភ្នាក់ងារដែលធ្វើអ្វីៗគ្រប់យ៉ាង» | អ្នកសុបិន 😅 | ការចំណាយ + ភាពវឹកវរ | ពេលខ្លះគួរឱ្យចាប់អារម្មណ៍ ជារឿយៗផុយស្រួយ - បន្តជាមួយអាហារសម្រន់ និងការអត់ធ្មត់ |
ប្រសិនបើអ្នកចង់បានមជ្ឈមណ្ឌល "ពិនិត្យការពិត" មួយសម្រាប់វឌ្ឍនភាព និងទិន្នន័យផលប៉ះពាល់នៃ AI នោះសន្ទស្សន៍ AI របស់ Stanford គឺជាកន្លែងដ៏រឹងមាំមួយដើម្បីចាប់ផ្តើម។ [2]
សេចក្តីសន្និដ្ឋាន + សង្ខេបខ្លីៗ 🧠✨
ដូច្នេះ AI ត្រូវបានផ្សព្វផ្សាយហួសហេតុពេក នៅពេលដែលនរណាម្នាក់កំពុងលក់៖
-
ភាពត្រឹមត្រូវល្អឥតខ្ចោះ,
-
ស្វ័យភាពពេញលេញ,
-
ការជំនួសតួនាទីទាំងមូលភ្លាមៗ
-
ឬខួរក្បាលដែលអាចដោះស្រាយបញ្ហារបស់អង្គការរបស់អ្នកបានយ៉ាងងាយស្រួល..
...មែនហើយ នោះគឺជាជំនាញលក់ដែលមានផ្ទៃរលោង។.
ប៉ុន្តែប្រសិនបើអ្នកចាត់ទុក AI ដូចជា៖
-
ជំនួយការដ៏មានឥទ្ធិពលម្នាក់
-
ប្រើបានល្អបំផុតនៅក្នុងកិច្ចការតូចចង្អៀត និងកំណត់យ៉ាងច្បាស់
-
ផ្អែកលើប្រភពដែលគួរឱ្យទុកចិត្ត,
-
ជាមួយមនុស្សកំពុងពិនិត្យមើលរបស់សំខាន់ៗ…
...បើដូច្នោះទេ វាមិនត្រូវបានផ្សព្វផ្សាយហួសហេតុពេកទេ។ វាគ្រាន់តែ... មិនស្មើគ្នា។ ដូចជាសមាជិកភាពក្លឹបហាត់ប្រាណអញ្ចឹង។ អស្ចារ្យណាស់ប្រសិនបើប្រើប្រាស់បានត្រឹមត្រូវ គ្មានប្រយោជន៍ទេប្រសិនបើអ្នកនិយាយអំពីវាតែនៅក្នុងពិធីជប់លៀង 😄🏋️
សង្ខេបសង្ខេប៖ បញ្ញាសិប្បនិម្មិត (AI) ត្រូវបានគេផ្សព្វផ្សាយហួសហេតុពេកថាជាការជំនួសដ៏អស្ចារ្យសម្រាប់ការវិនិច្ឆ័យ - ហើយត្រូវបានគេមិនឱ្យតម្លៃខ្ពស់ថាជាកត្តាគុណជាក់ស្តែងសម្រាប់ការព្រាង ជំនួយក្នុងការសរសេរកូដ ការជ្រើសរើស និងលំហូរការងារចំណេះដឹង។
សំណួរដែលសួរញឹកញាប់
តើ AI ត្រូវបានផ្សព្វផ្សាយហួសហេតុពេកឥឡូវនេះទេ?
បញ្ញាសិប្បនិម្មិត (AI) ត្រូវបានគេផ្សព្វផ្សាយហួសហេតុពេក នៅពេលដែលវាត្រូវបានលក់ថាល្អឥតខ្ចោះ មិនបាច់ប្រើដៃ ឬត្រៀមខ្លួនជាស្រេចដើម្បីជំនួសការងារទាំងមូលពេញមួយយប់។ នៅក្នុងការដាក់ពង្រាយពិតប្រាកដ គម្លាតភាពជឿជាក់លេចឡើងយ៉ាងឆាប់រហ័ស៖ ចម្លើយខុសដោយទំនុកចិត្ត ករណីគែម និងការរួមបញ្ចូលស្មុគស្មាញ។ បញ្ញាសិប្បនិម្មិត (AI) មិនត្រូវបានផ្សព្វផ្សាយហួសហេតុពេកទេ នៅពេលដែលវាត្រូវបានចាត់ទុកថាជាឧបករណ៍ត្រួតពិនិត្យសម្រាប់កិច្ចការតូចចង្អៀតដូចជាការព្រាង ការគាំទ្រការសរសេរកូដ ការជ្រើសរើស និងការរុករក។ ភាពខុសគ្នាគឺអាស្រ័យលើការរំពឹងទុក មូលដ្ឋាន និងការពិនិត្យឡើងវិញ។.
តើអ្វីទៅជាសញ្ញាគ្រោះថ្នាក់ធំៗបំផុតនៅក្នុងការអះអាងអំពីទីផ្សារ AI?
«ស្វ័យប្រវត្តិកម្មពេញលេញ» និង «ភាពត្រឹមត្រូវឥតខ្ចោះក្នុងពេលឆាប់ៗនេះ» គឺជាសញ្ញាព្រមានពីរដែលឮខ្លាំងបំផុត។ ការបង្ហាញជាញឹកញាប់ត្រូវបានរៀបចំឡើងជាមួយនឹងការជំរុញដែលបានលៃតម្រូវ និងទិន្នន័យស្អាត ដូច្នេះវាលាក់បាំងរបៀបបរាជ័យទូទៅ។ ភាពស្ទាត់ជំនាញក៏អាចត្រូវបានយល់ច្រឡំថាជាការពិតផងដែរ ដែលធ្វើឱ្យកំហុសដែលមានទំនុកចិត្តមានអារម្មណ៍ថាអាចទុកចិត្តបាន។ ប្រសិនបើការអះអាងមួយរំលងអ្វីដែលកើតឡើងនៅពេលដែលប្រព័ន្ធខូច សូមសន្មតថាហានិភ័យកំពុងត្រូវបានដកចេញ។.
ហេតុអ្វីបានជាប្រព័ន្ធ AI ស្តាប់ទៅមានទំនុកចិត្ត ទោះបីជាវាខុសក៏ដោយ?
គំរូបង្កើតគឺអស្ចារ្យណាស់ក្នុងការផលិតអត្ថបទដែលអាចទុកចិត្តបាន និងស្ទាត់ជំនាញ - ដូច្នេះពួកគេអាចបង្កើតព័ត៌មានលម្អិតដោយទំនុកចិត្តនៅពេលដែលពួកគេមិនមានមូលដ្ឋាន។ នេះត្រូវបានគេពិពណ៌នាជាញឹកញាប់ថាជាការយល់ច្រឡំ ឬការយល់ច្រឡំ៖ លទ្ធផលដែលស្តាប់ទៅជាក់លាក់ ប៉ុន្តែមិនពិតគួរឱ្យទុកចិត្ត។ នោះហើយជាមូលហេតុដែលករណីប្រើប្រាស់ដែលមានទំនុកចិត្តខ្ពស់ជាធម្មតាបន្ថែមការទាញយក ការផ្ទៀងផ្ទាត់ ការត្រួតពិនិត្យ និងការពិនិត្យឡើងវិញដោយមនុស្ស។ គោលដៅគឺតម្លៃជាក់ស្តែងជាមួយនឹងការការពារ មិនមែនភាពប្រាកដប្រជាដែលផ្អែកលើភាពរំញ័រនោះទេ។.
តើខ្ញុំអាចប្រើ AI ដោយមិនឱ្យមានការយល់ច្រឡំយ៉ាងដូចម្តេច?
ចាត់ទុក AI ដូចជាម៉ាស៊ីនព្រាង មិនមែនជាម៉ាស៊ីនសច្ចភាពទេ។ ចម្លើយមូលដ្ឋាននៅក្នុងប្រភពដែលបានផ្ទៀងផ្ទាត់ - ដូចជាគោលការណ៍ដែលបានអនុម័ត ឯកសារផ្ទៃក្នុង ឬឯកសារយោងដែលបានរៀបចំ - ជាជាងសន្មតថា "គំរូនឹងដឹង"។ បន្ថែមជំហានផ្ទៀងផ្ទាត់ (តំណភ្ជាប់ សម្រង់ ការត្រួតពិនិត្យឆ្លង) ហើយតម្រូវឱ្យមានការពិនិត្យឡើងវិញដោយមនុស្សនៅកន្លែងដែលកំហុសមានសារៈសំខាន់។ ចាប់ផ្តើមតូច វាស់វែងលទ្ធផល និងពង្រីកតែបន្ទាប់ពីអ្នកឃើញដំណើរការស្របគ្នា។.
តើករណីប្រើប្រាស់ល្អៗអ្វីខ្លះនៅក្នុងពិភពពិតដែលមិនត្រូវបានផ្សព្វផ្សាយហួសហេតុពេក?
បញ្ញាសិប្បនិម្មិត (AI) មានទំនោរផ្តល់លទ្ធផលល្អបំផុតលើកិច្ចការតូចចង្អៀត និងអាចធ្វើម្តងទៀតបាន ជាមួយនឹងរង្វាស់ជោគជ័យច្បាស់លាស់ និងហានិភ័យទាបទៅមធ្យម។ ជ័យជម្នះទូទៅរួមមាន ការព្រាង និងការសរសេរឡើងវិញ ការសង្ខេបឯកសារវែងៗ ការបង្កើតជម្រើស (គ្រោង ចំណងជើង វ៉ារ្យ៉ង់អ៊ីមែល) រចនាសម្ព័ន្ធសរសេរកូដ ការជ្រើសរើសការគាំទ្រ និងការផ្តល់យោបល់ពីផ្នែកជំនួយផ្ទៃក្នុង។ ចំណុចល្អបំផុតគឺ "ចាត់ថ្នាក់ → ទាញយក → ស្នើ" មិនមែន "បង្កើត → សង្ឃឹម → ដាក់ពង្រាយ" ទេ។ មនុស្សនៅតែជាម្ចាស់អ្វីដែលដឹកជញ្ជូន។.
តើ “ភ្នាក់ងារ AI ដែលធ្វើអ្វីៗគ្រប់យ៉ាង” ត្រូវបានផ្សព្វផ្សាយហួសហេតុពេកទេ?
ជារឿយៗ មែនហើយ - ជាពិសេសនៅពេលដែល "មិនប្រើដៃ" គឺជាចំណុចលក់។ លំហូរការងារច្រើនជំហាន ឧបករណ៍ស្មុគស្មាញ ការអនុញ្ញាត អ្នកប្រើប្រាស់ពិតប្រាកដ និងផលវិបាកពិតប្រាកដបង្កើតរបៀបបរាជ័យស្មុគស្មាញ។ ភ្នាក់ងារអាចមានតម្លៃសម្រាប់លំហូរការងារដែលមានកម្រិត ប៉ុន្តែភាពផុយស្រួយកើនឡើងយ៉ាងលឿននៅពេលដែលវិសាលភាពពង្រីក។ ការធ្វើតេស្តជាក់ស្តែងនៅតែសាមញ្ញ៖ កំណត់ជម្រើសជំនួស កំណត់ការទទួលខុសត្រូវ និងបញ្ជាក់ពីរបៀបដែលកំហុសត្រូវបានរកឃើញមុនពេលការខូចខាតរីករាលដាល។.
តើខ្ញុំសម្រេចចិត្តយ៉ាងដូចម្តេចថាតើ AI មានតម្លៃសម្រាប់ក្រុម ឬអង្គការរបស់ខ្ញុំ?
ចាប់ផ្តើមដោយកំណត់ការងារដូចជាការពិពណ៌នាការងារ៖ ធាតុចូល លទ្ធផល ការរឹតបន្តឹង និងអត្ថន័យនៃពាក្យ «ធ្វើរួច»។ បង្កើតមូលដ្ឋាន (ពេលវេលា ថ្លៃដើម អត្រាកំហុស) ដើម្បីឱ្យអ្នកអាចវាស់វែងការកែលម្អជំនួសឱ្យការជជែកវែកញែកអំពីអារម្មណ៍។ សម្រេចចិត្តថាការពិតមកពីណា - មូលដ្ឋានចំណេះដឹងផ្ទៃក្នុង ឯកសារដែលបានអនុម័ត ឬកំណត់ត្រាអតិថិជន។ បន្ទាប់មករចនាផែនការមនុស្សនៅក្នុងរង្វិលជុំ ហើយគូសផែនទីកាំផ្ទុះមុនពេលពង្រីក។.
តើអ្នកណាជាអ្នកទទួលខុសត្រូវនៅពេលដែលលទ្ធផល AI ខុស?
ម្ចាស់ដែលជាមនុស្សគួរតែត្រូវបានចាត់តាំងសម្រាប់លទ្ធផល ការពិនិត្យ និងអ្វីដែលកើតឡើងនៅពេលដែលប្រព័ន្ធបរាជ័យ។ “គំរូបាននិយាយដូច្នេះ” មិនមែនជាការទទួលខុសត្រូវនោះទេ ជាពិសេសនៅពេលដែលមានពាក់ព័ន្ធនឹងប្រាក់ សុវត្ថិភាព ឬសិទ្ធិ។ កំណត់ថាអ្នកណាអនុម័តការឆ្លើយតប ពេលណាដែលត្រូវការការពិនិត្យ និងរបៀបដែលឧប្បត្តិហេតុត្រូវបានកត់ត្រា និងដោះស្រាយ។ នេះប្រែក្លាយ AI ពីការទទួលខុសត្រូវទៅជាឧបករណ៍ដែលគ្រប់គ្រងដោយមានការទទួលខុសត្រូវច្បាស់លាស់។.
តើខ្ញុំត្រូវការអភិបាលកិច្ចនៅពេលណា ហើយតើក្របខ័ណ្ឌអ្វីខ្លះដែលត្រូវបានប្រើប្រាស់ជាទូទៅ?
អភិបាលកិច្ចមានសារៈសំខាន់បំផុតនៅពេលដែលហានិភ័យកើនឡើង - អ្វីទាំងអស់ដែលពាក់ព័ន្ធនឹងលទ្ធផលផ្នែកច្បាប់ សុវត្ថិភាព ផលប៉ះពាល់ផ្នែកហិរញ្ញវត្ថុ ឬសិទ្ធិរបស់ប្រជាជន។ របាំងការពារទូទៅរួមមាន NIST Generative AI Profile (ជាដៃគូជាមួយក្របខ័ណ្ឌគ្រប់គ្រងហានិភ័យ AI) គោលការណ៍ AI របស់ OECD និងកាតព្វកិច្ចផ្អែកលើហានិភ័យរបស់ EU AI Act។ ទាំងនេះលើកទឹកចិត្តដល់ការធ្វើតេស្ត ប្រភពដើម ការត្រួតពិនិត្យ និងការអនុវត្តការបង្ហាញឧប្បត្តិហេតុ។ វាអាចមានអារម្មណ៍ថាមិនទាក់ទាញ ប៉ុន្តែវាការពារ "អូ៎! យើងបានដាក់ពង្រាយសុបិន្តអាក្រក់នៃការអនុលោមតាមច្បាប់"។
ប្រសិនបើ AI ត្រូវបានផ្សព្វផ្សាយហួសហេតុពេក ហេតុអ្វីបានជាវានៅតែមានអារម្មណ៍ថាមានសារៈសំខាន់?
ការផ្សព្វផ្សាយ និងផលប៉ះពាល់អាចរួមរស់ជាមួយគ្នាបាន។ បច្ចេកវិទ្យាជាច្រើនដើរតាមគន្លងដែលធ្លាប់ស្គាល់៖ ការរំពឹងទុកខ្ពស់បំផុត ការពិតដ៏លំបាក បន្ទាប់មកតម្លៃស្ថិរភាព។ បញ្ញាសិប្បនិម្មិត (AI) មានឥទ្ធិពលខ្លាំង ប៉ុន្តែវាត្រូវបានគេលក់ចេញជាញឹកញាប់ដូចជាវាត្រូវបានបញ្ចប់រួចហើយ - នៅពេលដែលវានៅតែដំណើរការ ហើយការធ្វើសមាហរណកម្មយឺត។ តម្លៃយូរអង្វែងលេចឡើងនៅពេលដែលបញ្ញាសិប្បនិម្មិត (AI) លុបផ្នែកដែលគួរឱ្យធុញទ្រាន់នៃការងារ គាំទ្រការព្រាង និងការសរសេរកូដ និងធ្វើអោយប្រសើរឡើងនូវលំហូរការងារជាមួយនឹងមូលដ្ឋាន និងការពិនិត្យឡើងវិញ។.
ឯកសារយោង
-
ទម្រង់ AI បង្កើតថ្មីរបស់ NIST (NIST AI 600-1, PDF) - ការណែនាំរួមជាមួយក្របខ័ណ្ឌគ្រប់គ្រងហានិភ័យ AI ដោយគូសបញ្ជាក់ពីផ្នែកហានិភ័យសំខាន់ៗ និងសកម្មភាពដែលបានណែនាំសម្រាប់ការគ្រប់គ្រង ការធ្វើតេស្ត ប្រភព និងការបង្ហាញឧប្បត្តិហេតុ។ អានបន្ថែម
-
សន្ទស្សន៍ AI HAI របស់ស្ទែនហ្វដ - របាយការណ៍ប្រចាំឆ្នាំដែលសម្បូរទៅដោយទិន្នន័យ ដែលតាមដានវឌ្ឍនភាព ការទទួលយក ការវិនិយោគ និងផលប៉ះពាល់សង្គមនៃ AI នៅទូទាំងស្តង់ដារ និងសូចនាករសំខាន់ៗ។ អានបន្ថែម
-
ការស្រាវជ្រាវផលិតភាព GitHub Copilot - ការសរសេរការសិក្សាដែលគ្រប់គ្រងដោយ GitHub លើល្បឿនបញ្ចប់ភារកិច្ច និងបទពិសោធន៍របស់អ្នកអភិវឌ្ឍន៍នៅពេលប្រើប្រាស់ Copilot។ អានបន្ថែម
-
ទិដ្ឋភាពទូទៅនៃច្បាប់ AI របស់គណៈកម្មការអឺរ៉ុប - ទំព័រមជ្ឈមណ្ឌលរបស់គណៈកម្មការដែលពន្យល់អំពីកាតព្វកិច្ចកម្រិតហានិភ័យរបស់សហភាពអឺរ៉ុបសម្រាប់ប្រព័ន្ធ AI និងប្រភេទនៃការអនុវត្តហាមឃាត់។ អានបន្ថែម