តើ AI Ethics ជាអ្វី?

តើ AI Ethics ជាអ្វី?

ពាក្យនេះស្តាប់ទៅដូចជាខ្ពង់ខ្ពស់ ប៉ុន្តែគោលដៅគឺមានប្រយោជន៍ខ្លាំង៖ ធ្វើឱ្យប្រព័ន្ធ AI ដែលមនុស្សអាចជឿទុកចិត្តបាន ពីព្រោះពួកគេត្រូវបានរចនា បង្កើត និងប្រើប្រាស់ក្នុងវិធីដែលគោរពសិទ្ធិមនុស្ស កាត់បន្ថយគ្រោះថ្នាក់ និងផ្តល់អត្ថប្រយោជន៍ពិតប្រាកដ។ នោះហើយជាវាល្អ ភាគច្រើន។ 

អត្ថបទដែលអ្នកប្រហែលជាចង់អានបន្ទាប់ពីអត្ថបទនេះ៖

🔗 តើអ្វីទៅជា MCP នៅក្នុង AI
ពន្យល់ពីពិធីការគណនាម៉ូឌុល និងតួនាទីរបស់វានៅក្នុង AI ។

🔗 តើអ្វីទៅជាគែម AI
គ្របដណ្តប់ពីរបៀបដែលដំណើរការផ្អែកលើគែមធ្វើឱ្យការសម្រេចចិត្ត AI ក្នុងតំបន់កាន់តែលឿន។

🔗 តើអ្វីទៅជា AI ជំនាន់
ណែនាំគំរូដែលបង្កើតអត្ថបទ រូបភាព និងខ្លឹមសារដើមផ្សេងទៀត។

🔗 តើអ្វីទៅជាភ្នាក់ងារ AI
ពិពណ៌នាអំពីភ្នាក់ងារ AI ស្វយ័តដែលមានសមត្ថភាពធ្វើការសម្រេចចិត្តដែលជំរុញដោយគោលដៅ។


តើ AI Ethics ជាអ្វី? និយមន័យដ៏សាមញ្ញ 🧭

AI Ethics គឺជាសំណុំនៃគោលការណ៍ ដំណើរការ និងការការពារដែលណែនាំពីរបៀបដែលយើងរចនា អភិវឌ្ឍ ប្រើប្រាស់ និងគ្រប់គ្រង AI ដូច្នេះវាគាំទ្រសិទ្ធិមនុស្ស យុត្តិធម៌ គណនេយ្យភាព តម្លាភាព និងសង្គមល្អ។ គិតថាវាជាច្បាប់ប្រចាំថ្ងៃនៃផ្លូវសម្រាប់ក្បួនដោះស្រាយ - ជាមួយនឹងការត្រួតពិនិត្យបន្ថែមសម្រាប់ជ្រុងចំលែកដែលអ្វីៗអាចខុស។

ចំណុចសំខាន់ជាសកលគាំទ្រចំណុចនេះ៖ អនុសាសន៍របស់អង្គការយូណេស្កូ ផ្តោតសំខាន់លើសិទ្ធិមនុស្ស ការត្រួតពិនិត្យមនុស្ស និងយុត្តិធម៌ ជាមួយនឹងតម្លាភាព និងយុត្តិធម៌ជាមិនអាចចរចារបាន [1] ។ គោលការណ៍ AI របស់ OECD មានគោលបំណងសម្រាប់ ដែលអាចទុកចិត្តបាន ដែលគោរពតម្លៃប្រជាធិបតេយ្យ ខណៈពេលដែលនៅតែអនុវត្តជាក់ស្តែងសម្រាប់ក្រុមគោលនយោបាយ និងវិស្វកម្ម [2] ។

សរុបមក AI Ethics មិនមែនជាផ្ទាំងរូបភាពនៅលើជញ្ជាំងទេ។ វាជាសៀវភៅដែលក្រុមប្រើដើម្បីប្រមើលមើលហានិភ័យ បញ្ជាក់ភាពជឿជាក់ និងការពារមនុស្ស។ ក្របខ័ណ្ឌគ្រប់គ្រងហានិភ័យ AI របស់ NIST ចាត់ទុកក្រមសីលធម៌ដូចជាការគ្រប់គ្រងហានិភ័យសកម្មនៅទូទាំងវដ្តជីវិត AI [3] ។

 

ក្រមសីលធម៌ AI

អ្វី​ដែល​ធ្វើ​ឱ្យ​ក្រមសីលធម៌ AI ល្អ ✅

នេះ​ជា​កំណែ​មិន​ច្បាស់។ កម្មវិធី AI Ethics ល្អ៖

  • ត្រូវបានរស់នៅ, មិន laminated - គោលនយោបាយដែលជំរុញការអនុវត្តវិស្វកម្មពិតប្រាកដនិងការពិនិត្យឡើងវិញ។

  • ចាប់ផ្តើមពីការកំណត់បញ្ហា - ប្រសិនបើគោលបំណងត្រូវបានបិទ គ្មានការជួសជុលដោយយុត្តិធម៌នឹងរក្សាទុកវាទេ។

  • ការសម្រេចចិត្តឯកសារ - ហេតុអ្វីបានជាទិន្នន័យនេះ, ហេតុអ្វីបានជាគំរូនេះ, ហេតុអ្វីបានជាកម្រិតនេះ។

  • ការធ្វើតេស្តជាមួយបរិបទ - វាយតម្លៃដោយក្រុមរង មិនមែនគ្រាន់តែជាភាពត្រឹមត្រូវទូទៅទេ (ប្រធានបទ NIST ស្នូល) [3] ។

  • បង្ហាញការងាររបស់វា - កាតគំរូ ឯកសារសំណុំទិន្នន័យ និងជម្រះ comms អ្នកប្រើប្រាស់ [5] ។

  • បង្កើតគណនេយ្យភាព - ម្ចាស់ដែលមានឈ្មោះ ផ្លូវកើនឡើង សវនកម្ម។

  • ធ្វើសមតុល្យការដោះដូរពាណិជ្ជកម្មនៅក្នុងការបើកចំហ - សុវត្ថិភាពធៀបនឹងឧបករណ៍ប្រើប្រាស់ និងឯកជនភាព ដែលបានសរសេរចុះ។

  • ភ្ជាប់ទៅច្បាប់ - តម្រូវការផ្អែកលើហានិភ័យដែលគ្រប់គ្រងខ្នាតជាមួយនឹងផលប៉ះពាល់ (សូមមើលច្បាប់ EU AI) [4] ។

ប្រសិនបើវាមិនផ្លាស់ប្តូរការសម្រេចចិត្តផលិតផលតែមួយទេ វាមិនមែនជាក្រមសីលធម៌ទេ វាជាការតុបតែង។


ចម្លើយរហ័សចំពោះសំណួរធំ៖ តើអ្វីជាក្រមសីលធម៌ AI? 🥤

នេះជារបៀបដែលក្រុមឆ្លើយសំណួរដដែលៗចំនួនបី ម្តងហើយម្តងទៀត៖

  1. តើយើងគួរសាងសង់នេះទេ?

  2. ប្រសិនបើបាទ/ចាស តើយើងកាត់បន្ថយគ្រោះថ្នាក់ និងបញ្ជាក់ដោយរបៀបណា?

  3. ពេល​ដែល​រឿង​ទៅ​ខាង​មុខ តើ​អ្នក​ណា​ជា​អ្នក​ទទួល​ខុស​ត្រូវ ហើយ​នឹង​មាន​អ្វី​កើត​ឡើង​បន្ទាប់?

ជាក់ស្តែងគួរឱ្យធុញ។ ពិបាកគួរឱ្យភ្ញាក់ផ្អើល។ មានតម្លៃ។


ប្រអប់តូច 60 វិនាទី (បទពិសោធន៍ក្នុងការអនុវត្ត) 📎

ក្រុម fintech បញ្ជូនគំរូក្លែងបន្លំជាមួយនឹងភាពជាក់លាក់សរុបដ៏អស្ចារ្យ។ ពីរសប្តាហ៍ក្រោយមក សំបុត្រគាំទ្រកើនឡើងពីការទូទាត់ស្របច្បាប់ក្នុងតំបន់ជាក់លាក់មួយត្រូវបានរារាំង។ ការពិនិត្យឡើងវិញនៃក្រុមរងបង្ហាញថាការរំលឹកឡើងវិញសម្រាប់មូលដ្ឋាននោះគឺទាបជាងមធ្យមភាគ 12 ពិន្ទុ។ ក្រុមការងារពិនិត្យមើលការគ្របដណ្តប់ទិន្នន័យឡើងវិញ បង្ហាត់បង្ហាញឡើងវិញដោយតំណាងឱ្យប្រសើរជាងមុន និងបោះផ្សាយ កាតគំរូ ដែលកត់ត្រាការផ្លាស់ប្តូរ ការព្រមានដែលគេស្គាល់ និងផ្លូវអំពាវនាវរបស់អ្នកប្រើប្រាស់។ ភាពជាក់លាក់ធ្លាក់ចុះមួយចំណុច; ទំនុកចិត្តរបស់អតិថិជនលោតឡើង។ នេះគឺជាក្រមសីលធម៌ជា ការគ្រប់គ្រងហានិភ័យ និង ការគោរពអ្នកប្រើប្រាស់ មិនមែនជាផ្ទាំងរូបភាព [3][5] ទេ។


ឧបករណ៍ និងក្របខ័ណ្ឌដែលអ្នកពិតជាអាចប្រើប្រាស់បាន📋

(ការលេងសើចតិចតួចរួមបញ្ចូលក្នុងគោលបំណង នោះជាជីវិតពិត។ )

ឧបករណ៍ ឬក្របខ័ណ្ឌ ទស្សនិកជន តម្លៃ ហេតុអ្វីបានជាវាដំណើរការ កំណត់ចំណាំ
ក្របខ័ណ្ឌគ្រប់គ្រងហានិភ័យ NIST AI ផលិតផល ហានិភ័យ គោលនយោបាយ ឥតគិតថ្លៃ មុខងារច្បាស់លាស់ - គ្រប់គ្រង, ផែនទី, វាស់វែង, គ្រប់គ្រង ក្រុម-តម្រឹម ស្ម័គ្រចិត្ត យោងយ៉ាងទូលំទូលាយ [3]
គោលការណ៍ AI របស់ OECD Execs អ្នកបង្កើតគោលនយោបាយ ឥតគិតថ្លៃ តម្លៃ + recs ជាក់ស្តែងសម្រាប់ AI ដែលគួរឱ្យទុកចិត្ត អភិបាលកិច្ចរឹងមាំ ផ្កាយខាងជើង [2]
ច្បាប់ EU AI (ផ្អែកលើហានិភ័យ) ច្បាប់ ការអនុលោមតាម CTOs ឥតគិតថ្លៃ* កម្រិតហានិភ័យកំណត់ការគ្រប់គ្រងសមាមាត្រសម្រាប់ការប្រើប្រាស់ដែលមានឥទ្ធិពលខ្ពស់។ ការចំណាយលើការអនុលោមភាពប្រែប្រួល [4]
កាតគំរូ វិស្វករ ML, PMs ឥតគិតថ្លៃ ធ្វើស្តង់ដារនូវអ្វីដែលគំរូគឺ ធ្វើ និងកន្លែងដែលវាបរាជ័យ ក្រដាស + ឧទាហរណ៍មាន [5]
សំណុំទិន្នន័យឯកសារ ("សំណុំទិន្នន័យ") អ្នកវិទ្យាសាស្ត្រទិន្នន័យ ឥតគិតថ្លៃ ពន្យល់ពីប្រភពដើមទិន្នន័យ ការគ្របដណ្តប់ ការយល់ព្រម និងហានិភ័យ ចាត់ទុកវាដូចជាស្លាកសញ្ញាអាហារូបត្ថម្ភ

ការជ្រមុជទឹកជ្រៅ 1 - គោលការណ៍នៃចលនាមិនមែននៅក្នុងទ្រឹស្តី 🏃

  • យុត្តិធម៌ - វាយតម្លៃការអនុវត្តនៅទូទាំងប្រជាសាស្រ្ត និងបរិបទ; រង្វាស់រួមលាក់បាំងគ្រោះថ្នាក់ [3] ។

  • គណនេយ្យភាព - ចាត់តាំងម្ចាស់សម្រាប់ការសម្រេចចិត្តលើទិន្នន័យ គំរូ និងការដាក់ពង្រាយ។ រក្សាកំណត់ហេតុនៃការសម្រេចចិត្ត។

  • តម្លាភាព - ប្រើកាតគំរូ; ប្រាប់អ្នកប្រើប្រាស់ពីរបៀបដែលការសម្រេចចិត្តដោយស្វ័យប្រវត្តិគឺ និងអ្វីដែលអាចទទួលយកបាន [5] ។

  • ការត្រួតពិនិត្យរបស់មនុស្ស - ដាក់មនុស្សនៅក្នុង/នៅលើរង្វិលជុំសម្រាប់ការសម្រេចចិត្តដែលមានហានិភ័យខ្ពស់ ជាមួយនឹងអំណាចបញ្ឈប់/បដិសេធពិតប្រាកដ (បញ្ជាក់យ៉ាងច្បាស់ដោយអង្គការយូណេស្កូ) [1] ។

  • ភាពឯកជន និងសុវត្ថិភាព - បង្រួមអប្បបរមា និងការពារទិន្នន័យ។ ពិចារណាការលេចធ្លាយពេលសន្និដ្ឋាន និងការប្រើប្រាស់ខុសនៅខាងក្រោម។

  • អត្ថប្រយោជន៍ - បង្ហាញពីអត្ថប្រយោជន៍សង្គម មិនត្រឹមតែ KPIs ស្អាតប៉ុណ្ណោះទេ (OECD បង្កើតតុល្យភាពនេះ) [2] ។

ភាពច្របូកច្របល់តូច៖ ពេលខ្លះក្រុមជជែកតវ៉ាជាច្រើនម៉ោងអំពីឈ្មោះម៉ែត្រ ខណៈពេលដែលមិនអើពើនឹងសំណួរគ្រោះថ្នាក់ពិតប្រាកដ។ គួរឱ្យអស់សំណើចពីរបៀបដែលវាកើតឡើង។


ការជ្រមុជទឹកជ្រៅ 2 - ហានិភ័យ និងវិធីវាស់វា📏

Ethical AI ក្លាយជាជាក់ស្តែង នៅពេលអ្នកចាត់ទុកគ្រោះថ្នាក់ជាហានិភ័យដែលអាចវាស់វែងបាន៖

  • ការគូសផែនទីបរិបទ - តើអ្នកណារងផលប៉ះពាល់ដោយផ្ទាល់ និងដោយប្រយោល? តើ​ប្រព័ន្ធ​មាន​អំណាច​សម្រេច​អ្វី​ខ្លះ?

  • សម្បទាទិន្នន័យ - តំណាង រសាត់ គុណភាពដាក់ស្លាក ផ្លូវយល់ព្រម។

  • ឥរិយាបថគំរូ - របៀបបរាជ័យក្រោមការផ្លាស់ប្តូរការចែកចាយ ការជម្រុញពីសត្រូវ ឬការបញ្ចូលដែលមានគំនិតអាក្រក់។

  • ការវាយតម្លៃផលប៉ះពាល់ - ភាពធ្ងន់ធ្ងរ × លទ្ធភាព ការកាត់បន្ថយ និងហានិភ័យសំណល់។

  • ការគ្រប់គ្រងវដ្តជីវិត - ពីការកំណត់បញ្ហារហូតដល់ការត្រួតពិនិត្យក្រោយការដាក់ឱ្យប្រើប្រាស់។

NIST បំបែកវាជាបួនក្រុមមុខងារអាចទទួលយកបានដោយមិនចាំបាច់បង្កើតកង់ឡើងវិញ៖ គ្រប់គ្រង ផែនទី រង្វាស់ គ្រប់គ្រង [3] ។


ការជ្រមុជទឹកជ្រៅ 3 - ឯកសារដែលជួយសង្រ្គោះអ្នកនៅពេលក្រោយ🗂️

វត្ថុបុរាណដ៏រាបទាបពីរធ្វើលើសពីពាក្យស្លោកណាមួយ៖

  • កាតគំរូ - តើគំរូគឺសម្រាប់ របៀបដែលវាត្រូវបានវាយតម្លៃ កន្លែងដែលវាបរាជ័យ ការពិចារណាអំពីសីលធម៌ និងការព្រមាន - ខ្លី រចនាសម្ព័ន្ធ អាចអានបាន [5] ។

  • ឯកសារសំណុំទិន្នន័យ (“សន្លឹកទិន្នន័យ”) - ហេតុអ្វីបានជាទិន្នន័យនេះមាន របៀបដែលវាត្រូវបានប្រមូល នរណាជាអ្នកតំណាង គម្លាតដែលគេស្គាល់ និងការប្រើប្រាស់ដែលបានណែនាំ។

ប្រសិនបើអ្នកធ្លាប់ត្រូវពន្យល់ដល់និយតករ ឬអ្នកសារព័ត៌មានថាហេតុអ្វីបានជាតារាបង្ហាញម៉ូតម្នាក់មានអាកប្បកិរិយាខុសឆ្គង នោះអ្នកនឹងអរគុណខ្លួនឯងពីមុនសម្រាប់ការសរសេរទាំងនេះ។ អនាគតអ្នកនឹងទិញកាហ្វេពីអតីតកាល។


ការជ្រមុជទឹកជ្រៅ 4 - អភិបាលកិច្ចដែលពិតជាខាំ🧩

  • កំណត់កម្រិតហានិភ័យ - ខ្ចីគំនិតផ្អែកលើហានិភ័យ ដូច្នេះករណីប្រើប្រាស់ដែលមានឥទ្ធិពលខ្ពស់ទទួលបានការត្រួតពិនិត្យកាន់តែស៊ីជម្រៅ [4] ។

  • ច្រកទ្វារដំណាក់កាល - ការពិនិត្យឡើងវិញអំពីក្រមសីលធម៌នៅពេលទទួលទាន មុនពេលចាប់ផ្តើមដំណើរការ និងក្រោយពេលចាប់ផ្តើមដំណើរការ។ មិនមែនដប់ប្រាំទ្វារទេ។ បីគឺគ្រប់គ្រាន់។

  • ការបែងចែកភារកិច្ច - អ្នកអភិវឌ្ឍន៍ស្នើរពិនិត្យដៃគូហានិភ័យ អ្នកដឹកនាំចុះហត្ថលេខា។ ជម្រះបន្ទាត់។

  • ការឆ្លើយតបឧប្បត្តិហេតុ - អ្នកណាផ្អាកគំរូ របៀបដែលអ្នកប្រើប្រាស់ត្រូវបានជូនដំណឹង របៀបជួសជុលមើលទៅដូច។

  • សវនកម្មឯករាជ្យ - ផ្ទៃក្នុងដំបូង; ខាងក្រៅដែលទាមទារប្រាក់ភ្នាល់។

  • ការបណ្តុះបណ្តាល និងការលើកទឹកចិត្ត - ផ្តល់រង្វាន់ដល់បញ្ហាដែលប្រឈមមុខមុន ដោយមិនលាក់បាំងពួកគេ។

ចូរនិយាយដោយស្មោះត្រង់៖ ប្រសិនបើអភិបាលកិច្ចមិនដែលនិយាយថា ទេ វាមិនមែនជាអភិបាលកិច្ចទេ។


ការជ្រមុជទឹកជ្រៅ 5 - មនុស្សនៅក្នុងរង្វិលជុំមិនមែនជាឧបករណ៍ 👩⚖️

ការត្រួតពិនិត្យរបស់មនុស្សមិនមែនជាប្រអប់ធីកទេ វាជាជម្រើសរចនា៖

  • នៅពេលដែលមនុស្សសម្រេចចិត្ត - កំណត់កម្រិតច្បាស់លាស់ដែលមនុស្សម្នាក់ត្រូវតែពិនិត្យឡើងវិញ ជាពិសេសសម្រាប់លទ្ធផលដែលមានហានិភ័យខ្ពស់។

  • ការពន្យល់សម្រាប់អ្នកធ្វើការសម្រេចចិត្ត - ផ្តល់ឱ្យមនុស្សទាំង មូលហេតុ និង ភាពមិនច្បាស់លាស់

  • រង្វិលជុំមតិអ្នកប្រើ - អនុញ្ញាតឱ្យអ្នកប្រើប្រកួតប្រជែងឬកែតម្រូវការសម្រេចចិត្តដោយស្វ័យប្រវត្តិ។

  • ភាពងាយស្រួល - ចំណុចប្រទាក់ដែលអ្នកប្រើប្រាស់ផ្សេងគ្នាអាចយល់ និងប្រើប្រាស់ជាក់ស្តែង។

ការណែនាំរបស់អង្គការយូណេស្កូគឺសាមញ្ញនៅទីនេះ៖ សេចក្តីថ្លៃថ្នូររបស់មនុស្ស និងការត្រួតពិនិត្យគឺជាស្នូល មិនមែនជាជម្រើសទេ។ បង្កើតផលិតផលដើម្បីឱ្យមនុស្សអាចធ្វើអន្តរាគមន៍មុនពេលមានគ្រោះមហន្តរាយដល់ដី [1] ។


ចំណាំចំហៀង - ព្រំដែនបន្ទាប់៖ សរសៃប្រសាទ 🧠

នៅពេលដែល AI ប្រសព្វជាមួយបច្ចេកវិទ្យាសរសៃប្រសាទ ភាពឯកជនផ្លូវចិត្ត និង សេរីភាពនៃការគិត ក្លាយជាការពិចារណាលើការរចនាពិតប្រាកដ។ សៀវភៅលេងដូចគ្នាត្រូវបានអនុវត្ត៖ គោលការណ៍ផ្តោតលើសិទ្ធិ [1] អភិបាលកិច្ចដែលគួរឱ្យទុកចិត្តដោយការរចនា [2] និងការការពារសមាមាត្រសម្រាប់ការប្រើប្រាស់ដែលមានហានិភ័យខ្ពស់ [4] ។ សាងសង់​ផ្លូវ​យាម​មុន​ជាជាង​ដាក់​ទ្រនាប់​នៅ​ពេល​ក្រោយ។


តើ​ក្រុម​ឆ្លើយ​ថា ​អ្វី​ទៅ​ជា​ក្រមសីលធម៌ AI? នៅក្នុងការអនុវត្ត - លំហូរការងារ🧪

សាកល្បងរង្វិលជុំសាមញ្ញនេះ។ វាមិនល្អឥតខ្ចោះទេ ប៉ុន្តែវាមានប្រសិទ្ធភាពរឹងរូស៖

  1. ការត្រួតពិនិត្យគោលបំណង - តើយើងកំពុងដោះស្រាយបញ្ហាមនុស្សបែបណា ហើយតើអ្នកណាទទួលផល ឬទទួលហានិភ័យ?

  2. ផែនទីបរិបទ - អ្នកពាក់ព័ន្ធ បរិស្ថាន ឧបសគ្គ គ្រោះថ្នាក់ដែលគេស្គាល់។

  3. ផែនការទិន្នន័យ - ប្រភព ការយល់ព្រម ការតំណាង ការរក្សាទុក ឯកសារ។

  4. ការរចនាសម្រាប់សុវត្ថិភាព - ការធ្វើតេស្តប្រឆាំង ការដាក់ជាក្រុមពណ៌ក្រហម ការរចនាឯកជនភាពដោយការរចនា។

  5. កំណត់ភាពយុត្តិធម៌ - ជ្រើសរើសរង្វាស់ដែនសមស្រប។ ការដោះដូរឯកសារ។

  6. ផែនការភាពអាចពន្យល់បាន - តើអ្វីនឹងត្រូវបានពន្យល់ដល់អ្នកណា និងរបៀបដែលអ្នកនឹងបញ្ជាក់អំពីអត្ថប្រយោជន៍។

  7. កាតគំរូ - ព្រាងមុនកាលកំណត់ ធ្វើបច្ចុប្បន្នភាពនៅពេលអ្នកទៅ បោះពុម្ពនៅពេលបើកដំណើរការ [5]។

  8. ច្រកទ្វារអភិបាលកិច្ច - ការត្រួតពិនិត្យហានិភ័យជាមួយម្ចាស់ដែលទទួលខុសត្រូវ; រចនាសម្ព័ន្ធដោយប្រើមុខងាររបស់ NIST [3] ។

  9. ការត្រួតពិនិត្យក្រោយការបាញ់បង្ហោះ - រង្វាស់ ការជូនដំណឹងរសាត់ សៀវភៅឧប្បត្តិហេតុ ការអំពាវនាវរបស់អ្នកប្រើប្រាស់។

ប្រសិនបើ​ជំហាន​មួយ​មាន​អារម្មណ៍​ថា​ធ្ងន់ សូម​ធ្វើ​មាត្រដ្ឋាន​វា​ទៅ​នឹង​ហានិភ័យ។ នោះហើយជាល្បិច។ វិស្វកម្មហួសកម្រិត បូតកែអក្ខរាវិរុទ្ធ ជួយគ្មាននរណាម្នាក់ទេ។


ក្រមសីលធម៌ធៀបនឹងការអនុលោមភាព - ភាពខុសគ្នាដ៏ហឹរប៉ុន្តែចាំបាច់🌶️

  • សីលធម៌ សួរថាៈ តើនេះជារបស់ត្រឹមត្រូវសម្រាប់មនុស្សទេ?

  • អនុលោម​ភាព ​សួរ​ថា តើ​នេះ​ត្រូវ​នឹង​សៀវភៅ​ច្បាប់​ដែរ​ឬ​ទេ?

អ្នកត្រូវការទាំងពីរ។ គំរូផ្អែកលើហានិភ័យរបស់ EU អាចជាឆ្អឹងខ្នងនៃការអនុលោមតាមច្បាប់របស់អ្នក ប៉ុន្តែកម្មវិធីសីលធម៌របស់អ្នកគួរជំរុញឱ្យលើសពីកម្រិតអប្បបរមា ជាពិសេសនៅក្នុងករណីនៃការប្រើប្រាស់មិនច្បាស់លាស់ ឬប្រលោមលោក [4]។

ពាក្យ​ប្រៀបប្រដូច​រហ័ស (មាន​កំហុស) : ការ​អនុលោម​តាម​គឺ​ជា​របង; សីលធម៌គឺជាអ្នកគង្វាល។ របងការពារអ្នកនៅក្នុងព្រំដែន; អ្នកគង្វាលរក្សាអ្នកឱ្យដើរតាមផ្លូវត្រឹមត្រូវ។


កំហុសទូទៅ - និងអ្វីដែលត្រូវធ្វើជំនួស🚧

  • រណ្តៅ៖ ល្ខោនសីលធម៌ - គោលការណ៍ល្អប្រណិតដោយគ្មានធនធាន។
    ជួសជុល៖ លះបង់ពេលវេលា ម្ចាស់ និងពិនិត្យចំណុចត្រួតពិនិត្យ។

  • រណ្តៅ៖ ជាមធ្យមការបំផ្លាញឆ្ងាយ - មាត្រដ្ឋានរួមដ៏អស្ចារ្យលាក់ការបរាជ័យនៃក្រុមរង។
    ជួសជុល៖ តែងតែវាយតម្លៃដោយក្រុមរងដែលពាក់ព័ន្ធ [3]។

  • រណ្តៅ៖ លាក់កំបាំងជាសុវត្ថិភាព - លាក់ព័ត៌មានលម្អិតពីអ្នកប្រើប្រាស់។
    ជួសជុល៖ បញ្ចេញសមត្ថភាព ដែនកំណត់ និងការទាមទារជាភាសាសាមញ្ញ [5] ។

  • Pitfall: សវនកម្មនៅចុងបញ្ចប់ - ការស្វែងរកបញ្ហាមុនពេលចាប់ផ្តើម។
    ជួសជុល៖ ប្តូរទៅឆ្វេង ធ្វើឱ្យផ្នែកក្រមសីលធម៌នៃការរចនា និងការប្រមូលទិន្នន័យ។

  • រណ្តៅ៖ បញ្ជីត្រួតពិនិត្យដោយគ្មានការវិនិច្ឆ័យ - ទម្រង់ខាងក្រោមមិនមែនន័យទេ។
    ជួសជុល៖ រួមបញ្ចូលគ្នានូវគំរូជាមួយការត្រួតពិនិត្យអ្នកជំនាញ និងការស្រាវជ្រាវអ្នកប្រើប្រាស់។


សំណួរគេសួរញឹកញាប់ - អ្វីដែលអ្នកនឹងត្រូវបានសួរ ?

តើ AI Ethics ប្រឆាំងនឹងការច្នៃប្រឌិតមែនទេ?
ទេ វាជាការច្នៃប្រឌិតដែលមានប្រយោជន៍។ ក្រមសីលធម៌ជៀសវាងការស្លាប់ដូចជាប្រព័ន្ធលំអៀងដែលបង្កឱ្យមានប្រតិកម្មតបត ឬបញ្ហាផ្លូវច្បាប់។ ស៊ុមរបស់ OECD ផ្សព្វផ្សាយយ៉ាងច្បាស់នូវការច្នៃប្រឌិតជាមួយនឹងសុវត្ថិភាព [2] ។

តើយើងត្រូវការវាទេប្រសិនបើផលិតផលរបស់យើងមានហានិភ័យទាប?
បាទ ប៉ុន្តែស្រាលជាង។ ប្រើការគ្រប់គ្រងសមាមាត្រ។ គំនិតផ្អែកលើហានិភ័យនោះគឺជាស្តង់ដារនៅក្នុងវិធីសាស្រ្តរបស់សហភាពអឺរ៉ុប [4] ។

តើឯកសារអ្វីខ្លះដែលត្រូវមាន?
យ៉ាងហោចណាស់៖ ឯកសារសំណុំទិន្នន័យសម្រាប់សំណុំទិន្នន័យសំខាន់ៗរបស់អ្នក កាតគំរូសម្រាប់ម៉ូដែលនីមួយៗ និងកំណត់ហេតុការសម្រេចចិត្តចេញផ្សាយ [5]។

តើអ្នកណាជាម្ចាស់ AI Ethics?
មនុស្សគ្រប់រូបមានអាកប្បកិរិយា ប៉ុន្តែផលិតផល វិទ្យាសាស្ត្រទិន្នន័យ និងក្រុមហានិភ័យត្រូវការការទទួលខុសត្រូវដែលមានឈ្មោះ។ មុខងាររបស់ NIST គឺជារន្ទាដ៏ល្អ [3] ។


អត់បានអានយូរពេក - សុន្ទរកថាចុងក្រោយ 💡

បើ​អ្នក​គិត​ទាំង​អស់​នេះ​ហើយ នេះ​ជា​បេះដូង៖ តើ​អ្វី​ទៅ​ជា​ក្រមសីលធម៌ AI? វាជាវិន័យជាក់ស្តែងសម្រាប់ការកសាង AI ដែលមនុស្សអាចជឿទុកចិត្តបាន។ បោះយុថ្កាចំពោះការណែនាំដែលទទួលយកយ៉ាងទូលំទូលាយ-ទិដ្ឋភាពផ្តោតលើសិទ្ធិរបស់អង្គការយូណេស្កូ និងគោលការណ៍ AI គួរឱ្យទុកចិត្តរបស់ OECD ។ ប្រើក្របខ័ណ្ឌហានិភ័យរបស់ NIST ដើម្បីដំណើរការវា ហើយដឹកជញ្ជូនជាមួយកាតគំរូ និងឯកសារសំណុំទិន្នន័យ ដូច្នេះជម្រើសរបស់អ្នកអាចយល់បាន។ បន្ទាប់​មក​បន្ត​ការ​ស្តាប់​អ្នក​ប្រើ ​ចំពោះ​អ្នក​ពាក់ព័ន្ធ​ចំពោះ​ការ​ត្រួតពិនិត្យ​ផ្ទាល់​របស់​អ្នក​ និង​កែតម្រូវ។ ក្រមសីលធម៌មិនមែនជាការធ្វើតែមួយមុខទេ។ វាជាទម្លាប់។

បាទ/ចាស ពេលខ្លះអ្នកនឹងយល់ត្រូវ។ នោះមិនមែនជាការបរាជ័យទេ។ នោះគឺជាការងារ។ 🌱


ឯកសារយោង

  1. យូណេស្កូ - អនុសាសន៍ស្តីពីក្រមសីលធម៌នៃបញ្ញាសិប្បនិម្មិត (២០២១)។ តំណភ្ជាប់

  2. OECD - គោលការណ៍ AI (2019)។ តំណភ្ជាប់

  3. NIST - ក្របខ័ណ្ឌគ្រប់គ្រងហានិភ័យបញ្ញាសិប្បនិម្មិត (AI RMF 1.0) (2023) (PDF) ។ តំណភ្ជាប់

  4. EUR-Lex - បទប្បញ្ញត្តិ (EU) 2024/1689 (ច្បាប់ AI) ។ តំណភ្ជាប់

  5. Mitchell et al ។ - "កាតគំរូសម្រាប់ការរាយការណ៍គំរូ" (ACM, 2019) ។ តំណភ្ជាប់


ស្វែងរក AI ចុងក្រោយបំផុតនៅហាងជំនួយការ AI ផ្លូវការ

អំពីយើង

ត្រឡប់ទៅប្លុកវិញ