ការសិក្សាថ្មី៖ ក្រុមហ៊ុន AI ធំៗ កំពុងបរាជ័យក្នុងការបំពេញស្តង់ដារសុវត្ថិភាពសកល

04-12-2025 09:20

(បរទេស)៖ យោងតាមការបោះពុម្ពផ្សាយថ្មីនៃសន្ទស្សន៍សុវត្ថិភាព AI របស់វិទ្យាស្ថាន «Future of Life» ដែលបង្ហាញជាសាធារណៈនៅថ្ងៃពុធសប្តាហ៍នេះ បានបង្ហាញថា ការអនុវត្តសុវត្ថិភាពរបស់ក្រុមហ៊ុនបញ្ញាសិប្បនិម្មិតធំៗ ដូចជា Anthropic, OpenAI, xAI និង Meta គឺ «នៅឆ្ងាយពីស្តង់ដារសកលដែលកំពុងដាក់ចេញ»។ នេះបើតាមការចេញផ្សាយដោយសារព័ត៌មាន Reuters នៅថ្ងៃទី០៤ ខែធ្នូ ឆ្នាំ២០២៥។

វិទ្យាស្ថាននេះបាននិយាយថា ការវាយតម្លៃសុវត្ថិភាពដែលធ្វើឡើងដោយក្រុមអ្នកជំនាញឯករាជ្យមួយក្រុម បានរកឃើញថា ខណៈពេលដែលក្រុមហ៊ុននានាកំពុងមមាញឹកក្នុងការប្រណាំងប្រជែងដើម្បីអភិវឌ្ឍបញ្ញាសិប្បនិម្មិត គ្មានក្រុមហ៊ុនណាមួយមានយុទ្ធសាស្ត្ររឹងមាំសម្រាប់គ្រប់គ្រងប្រព័ន្ធទំនើបបែបនេះទេ។ ការសិក្សានេះកើតឡើងចំពេលមានការព្រួយបារម្ភកាន់តែខ្លាំងឡើងពីសាធារណជន អំពីផលប៉ះពាល់សង្គមនៃប្រព័ន្ធឆ្លាតវៃជាងមនុស្សដែលមានសមត្ថភាពក្នុងការវែកញែក និងការគិតវិភាគ បន្ទាប់ពីករណីធ្វើអត្តឃាត និងការធ្វើបាបខ្លួនឯងជាច្រើនត្រូវបានផ្សារភ្ជាប់ទៅនឹង chatbots បញ្ញាសិប្បនិម្មិត (AI)។

លោក Max Tegmark សាស្ត្រាចារ្យ MIT និងជាប្រធានវិទ្យាស្ថាន «Future of Life» បាននិយាយថា «ទោះបីជាមានការភ្ញាក់ផ្អើលនាពេលថ្មីៗនេះ លើការលួចចូលប្រព័ន្ធបញ្ញាសិប្បនិម្មិត (AI) និង AI ដែលជំរុញឱ្យមនុស្សវិកលចរិក និងការធ្វើបាបខ្លួនឯងក៏ដោយ ក្រុមហ៊ុនបញ្ញាសិប្បនិម្មិតរបស់សហរដ្ឋអាមេរិក នៅតែមានការគ្រប់គ្រងតិចតួច ហើយបន្តតស៊ូមតិប្រឆាំងនឹងស្តង់ដារសុវត្ថិភាពដែលជាកាតព្វកិច្ច»។ វិទ្យាស្ថាន «Future of Life» គឺជាអង្គការមិនស្វែងរកប្រាក់ចំណេញដែលបានលើកឡើងពីការព្រួយបារម្ភអំពីហានិភ័យដែលម៉ាស៊ីនឆ្លាតវៃបង្កឡើងចំពោះមនុស្សជាតិ។ ត្រូវបានបង្កើតឡើងក្នុងឆ្នាំ២០១៤ វិទ្យាស្ថាននេះត្រូវបានគាំទ្រនៅដើមដំបូងដោយក្រុមហ៊ុន Tesla របស់ Elon Musk។

អ្នកនាំពាក្យរបស់ Google DeepMind បាននិយាយថា ក្រុមហ៊ុននឹង «បន្តច្នៃប្រឌិតលើសុវត្ថិភាព និងអភិបាលកិច្ចស្របតាមសមត្ថភាព» ខណៈដែលគំរូរបស់ខ្លួនកាន់តែជឿនលឿន។ ងាកមក xAI បាននិយាយថា «ប្រព័ន្ធផ្សព្វផ្សាយចាស់ៗកុហក» នៅក្នុងអ្វីដែលហាក់ដូចជាការឆ្លើយតបដោយស្វ័យប្រវត្តិ។ អ្នកនាំពាក្យ OpenAI បាននិយាយថា «យើងចែករំលែកក្របខ័ណ្ឌសុវត្ថិភាព ការវាយតម្លៃ និងការស្រាវជ្រាវរបស់យើង ដើម្បីជួយជំរុញស្តង់ដារឧស្សាហកម្ម ហើយយើងពង្រឹងការការពាររបស់យើងជាបន្តបន្ទាប់ ដើម្បីត្រៀមខ្លួនសម្រាប់សមត្ថភាពនាពេលអនាគត»។ អ្នកនាំពាក្យរូបនេះបានបន្ថែមថា ក្រុមហ៊ុនវិនិយោគយ៉ាងច្រើនលើការស្រាវជ្រាវព្រំដែនសុវត្ថិភាព និង «យ៉ាងម៉ត់ចត់» លើគំរូរបស់ខ្លួន។

ក្រុមហ៊ុន Anthropic, Meta, Z.ai, DeepSeek និង Alibaba Cloud មិនបានឆ្លើយតបទៅនឹងសំណើសុំការអត្ថាធិប្បាយលើការសិក្សានេះទេ៕