ພັນທິກອນເອີ້ນວ່າ CEO ຂອງ Anthropic ວ່າ ‘ຄົນຕົວະ’ ທີ່ມີ ‘ຄວາມຄິດວ່າຕົວເອງເປັນເຈົ້າພະເຈົ້າ’ ໃນຂະນະທີ່ເວລາເຊົາໝົດກ່ຽວກັບການນໍາ AI ໃຊ້ໃນປືນຢານແລະການເຝົ້າລະວັງຈະຖึง

(SeaPRwire) –   ບໍລິສັດ AI Anthropic ກ່າວວ່າ ຕົນບໍ່ສາມາດຍອມຮັບຂໍ້ສະເໜີ “ດີທີ່ສຸດ ແລະສຸດທ້າຍ” ຂອງກະຊວງປ້ອງກັນປະເທດ ເພື່ອແກ້ໄຂຂໍ້ຂັດແຍ່ງກ່ຽວກັບວິທີທີ່ກອງທັບສະຫະລັດສາມາດນຳໃຊ້ແບບຈຳລອງ AI ຂອງຕົນ. ດ້ວຍເວລາພຽງບໍ່ເທົ່າໃດຊົ່ວໂມງກ່ອນເຖິງກຳນົດວັນສຸກ ເພື່ອປະຕິບັດຕາມຄວາມຮຽກຮ້ອງຂອງກະຊວງປ້ອງກັນປະເທດ ຫຼື ປະເຊີນໜ້າກັບການດຳເນີນການທີ່ອາດເຮັດໃຫ້ Anthropic ຖືກຫ້າມບໍ່ໃຫ້ເຮັດທຸລະກິດກັບບໍລິສັດໃດໆ ທີ່ເຮັດທຸລະກິດກັບກອງທັບສະຫະລັດ, ຂໍ້ຂັດແຍ່ງດັ່ງກ່າວໄດ້ກາຍເປັນເລື່ອງທີ່ໜ້າອັບອາຍຫຼາຍຂຶ້ນ.

ເຈົ້າໜ້າທີ່ກະຊວງປ້ອງກັນປະເທດ ໄດ້ຕັ້ງຄຳຖາມຕໍ່ສາທາລະນະກ່ຽວກັບລັກສະນະຂອງ CEO Anthropic, Dario Amodei. ໃນຂະນະດຽວກັນ, ພະນັກງານຢູ່ຫ້ອງທົດລອງ AI ຄູ່ແຂ່ງ ໄດ້ລົງນາມໃນຈົດໝາຍເປີດສະໜັບສະໜູນທ່າທີຂອງ Anthropic. CEO OpenAI, Sam Altman, ໄດ້ບອກພະນັກງານຂອງຕົນໃນບັນທຶກໃນວັນພະຫັດ, ອີງຕາມຂໍ້ມູນຈາກ Axios, ວ່າ OpenAI ຈະຊຸກຍູ້ໃຫ້ມີຂໍ້ຈຳກັດດຽວກັນຕໍ່ອາວຸດອັດຕະໂນມັດ ແລະ ການສອດແນມມวลຊົນ ທີ່ Anthropic ມີ ໃນຂະນະທີ່ເຈລະຈາເພື່ອຂະຫຍາຍການນຳໃຊ້ ChatGPT, ເຊິ່ງປະຈຸບັນມີໃຫ້ກອງທັບໃຊ້ສຳລັບກໍລະນີທີ່ບໍ່ລະອຽດອ່ອນ, ໄປສູ່ໂດເມນທີ່ເປັນຄວາມລັບຫຼາຍຂຶ້ນ.

ການຕໍ່ສູ້ລະຫວ່າງ Anthropic ແລະກະຊວງປ້ອງກັນປະເທດ ດຽວນີ້ ກໍາລັງຂົ່ມຂູ່ທີ່ຈະລຸກລາມໄປສູ່ການລຸກຮື້ຂຶ້ນທົ່ວອຸດສາຫະກໍາໃນບັນດາພະນັກງານເທັກໂນໂລຍີ ຢູ່ບໍລິສັດ AI ກ່ຽວກັບວິທີການນຳໃຊ້ລະບົບ AI ທີ່ພວກເຂົາກຳລັງສ້າງຂຶ້ນໂດຍກອງທັບ. ໃນວັນພະຫັດ, ພະນັກງານຫຼາຍກວ່າ 100 ຄົນ ຢູ່ Google ໄດ້ສົ່ງຈົດໝາຍເຖິງ Jeff Dean, ນັກວິທະຍາສາດຫົວໜ້າຂອງບໍລິສັດ, ໂດຍຮຽກຮ້ອງໃຫ້ມີຂໍ້ຈຳກັດຄ້າຍຄືກັນກ່ຽວກັບວິທີການນຳໃຊ້ແບບຈຳລອງ Gemini AI ຂອງ Google ໂດຍກອງທັບສະຫະລັດ, ອີງຕາມການລາຍງານຂອງ The Information.

ໃນວັນພະຫັດ, Amodei ໄດ້ເຜີຍແຜ່ຖະແຫຼງການອະທິບາຍວ່າເປັນຫຍັງບໍລິສັດຈຶ່ງເຊື່ອວ່າຄວນມີຂໍ້ຈຳກັດກ່ຽວກັບການນຳໃຊ້ເທັກໂນໂລຍີ AI ຂອງຕົນສຳລັບອາວຸດອັດຕະໂນມັດ ແລະ ການສອດແນມມวลຊົນ. ນີ້ແມ່ນສອງຂົງເຂດທີ່ Anthropic ປະຈຸບັນຈຳກັດການນຳໃຊ້ແບບຈຳລອງຂອງຕົນໂດຍກອງທັບ, ທັງໃນເງື່ອນໄຂສັນຍາ ແລະ ຜ່ານການປ້ອງກັນທີ່ໄດ້ສ້າງຂຶ້ນໂດຍກົງໃນແບບຈຳລອງ Claude ຂອງຕົນ. ກະຊວງປ້ອງກັນປະເທດ ຕ້ອງການໃຫ້ຂໍ້ຈຳກັດເຫຼົ່ານີ້ຖືກຍົກເລີກ ແລະ ໃຫ້ Anthropic ຕົກລົງວ່າ ກອງທັບສະຫະລັດ ສາມາດນຳໃຊ້ແບບຈຳລອງຂອງຕົນ “ເພື່ອຈຸດປະສົງທີ່ຖືກກົດໝາຍທັງໝົດ”.

ລະບົບ AI ທີ່ກ້າວໜ້າ “ຍັງບໍ່ທັນເຊື່ອຖືໄດ້ພຽງພໍທີ່ຈະຂັບເຄື່ອນອາວຸດອັດຕະໂນມັດຢ່າງເຕັມທີ່,” ແລະ ບໍ່ມີການຄວບຄຸມທີ່ເໝາະສົມ, ພວກມັນ “ບໍ່ສາມາດອີງໃສ່ການໃຊ້ວິຈາລະນະຍານທີ່ສຳຄັນທີ່ກອງທະຫານມືອາຊີບທີ່ໄດ້ຮັບການຝຶກອົບຮົມຢ່າງດີຂອງພວກເຮົາສະແດງໃຫ້ເຫັນທຸກໆມື້,” Amodei ຂຽນໃນຖະແຫຼງການຂອງຕົນ. ກ່ຽວກັບການສອດແນມ, ລາວໄດ້ໂຕ້ຖຽງວ່າ, AI ທີ່ມີອຳນາດໃນປັດຈຸບັນ ສາມາດລວມຂໍ້ມູນສາທາລະນະທີ່ບໍ່ເປັນອັນຕະລາຍແຕ່ລະຄົນ, ເຊັ່ນບັນທຶກສະຖານທີ່, ປະຫວັດການທ່ອງເວັບ, ແລະ ການເຊື່ອມໂຍງທາງສັງຄົມ, ເຂົ້າໄປໃນຮູບພາບທີ່ສົມບູນຂອງຊີວິດຂອງພົນລະເມືອງອາເມລິກາທຸກຄົນໃນຂະໜາດໃຫຍ່.

Emil Michael, ຮອງລັດຖະມົນຕີການທະຫານຂອງສະຫະລັດ, ໄດ້ເອີ້ນ Amodei ວ່າ “ຄົນຕົວະ” ທີ່ມີ “God complex” ໃນການຕອບສະໜອງ, ກ່າວຫາ CEO ວ່າຕ້ອງການ “ຄວບຄຸມກອງທັບສະຫະລັດສ່ວນຕົວ” ໃນໂພສໃນເວທີສັງຄົມ X. ໃນໂພສແຍກຕ່າງຫາກ, Michael ຍັງໄດ້ອະທິບາຍ Claude Constitution ຂອງ Anthropic—ເອກະສານພາຍໃນທີ່ສະຫຼຸບຄຸນຄ່າ ແລະ ຫຼັກການທີ່ບໍລິສັດສ້າງຂຶ້ນໃນ AI ຂອງຕົນ—ວ່າເປັນແຜນການຂອງບໍລິສັດເພື່ອ “ບັງຄັບໃຊ້ກົດໝາຍຂອງບໍລິສັດຂອງຕົນຕໍ່ຊາວອາເມລິກາ.”

ກະຊວງປ້ອງກັນປະເທດ ໄດ້ຮຽກຮ້ອງໃຫ້ Anthropic ຍົກເລີກຂໍ້ຈຳກັດສັນຍາທີ່ຕົນຄັດຄ້ານພາຍໃນເວລາ 5:01 ໂມງແລງ ວັນສຸກ ຫຼື ປະເຊີນໜ້າກັບການຍົກເລີກສັນຍາມູນຄ່າ 200 ລ້ານໂດລາສະຫະລັດ ກັບກອງທັບສະຫະລັດ, ຫຼື ໃນການເຄື່ອນໄຫວທີ່ຮຸນແຮງກວ່າ, ຖືກຕິດປ້າຍວ່າ “ຄວາມສ່ຽງຕໍ່ລະບົບຕ່ອງໂສ້ການສະໜອງ,” ເຊິ່ງຈະເຮັດໃຫ້ບໍລິສັດໃດໆ ທີ່ເຮັດທຸລະກິດກັບກອງທັບ ບໍ່ສາມາດນຳໃຊ້ເທັກໂນໂລຍີຂອງ Anthropic ໄດ້.

ການເຄື່ອນໄຫວແບບນີ້ ປົກກະຕິແລ້ວຈະສະຫງວນໄວ້ສຳລັບບໍລິສັດຂອງສັດຕູຕ່າງຊາດ ເຊັ່ນ Baidu ຂອງຈີນ ຫຼື ບໍລິສັດຄວາມປອດໄພທາງໄຊເບີ Kaspersky ຂອງລັດເຊຍ.

“ການນຳໃຊ້ມັນຕໍ່ຕ້ານບໍລິສັດພາຍໃນປະເທດ ດ້ວຍເຫດຜົນທີ່ພວກເຂົາບໍ່ເຕັມໃຈທີ່ຈະປ່ຽນແປງຫຼັກການບາງຢ່າງດັ່ງກ່າວ, ຖືວ່າເປັນການເພີ່ມຂຶ້ນຢ່າງຮ້າຍແຮງ ແລະ ບໍ່ເຄີຍມີມາກ່ອນ,” Seán Ó hÉigeartaigh, ຜູ້ອຳນວຍການບໍລິຫານຂອງ Center for the Study of Existential Risk ຂອງ Cambridge, ກ່າວຕໍ່ The Verge.

ກະຊວງການທະຫານ ຍັງໄດ້ຂົ່ມຂູ່ທີ່ຈະນຳໃຊ້ກົດໝາຍ Defense Production Act ສະໄໝສົງຄາມເຢັນ, ໂດຍໃຊ້ກົດໝາຍດັ່ງກ່າວເພື່ອບັງຄັບ Anthropic ໃຫ້ສົ່ງມອບ Claude ຮຸ່ນທີ່ບໍ່ມີຂໍ້ຈຳກັດ ໂດຍອ້າງວ່າລັດຖະບານຖືວ່າມັນມີຄວາມສຳຄັນຕໍ່ຄວາມໝັ້ນຄົງຂອງຊາດ. ຖ້າກະຊວງປ້ອງກັນປະເທດ ດຳເນີນການຕາມເສັ້ນທາງນີ້, ມັນຈະໃຊ້ສິດອຳນາດທີ່ຕັ້ງໃຈໄວ້ສຳລັບການສຸກເສີນເທົ່ານັ້ນ ເພື່ອແກ້ໄຂຂໍ້ຂັດແຍ່ງສັນຍາໃນຊ່ວງເວລາສັນຕິພາບ. ມີບາງກໍລະນີ precedent ສໍາລັບເລື່ອງນີ້: ຝ່າຍບໍລິຫານ Biden ກໍໄດ້ນຳໃຊ້ DPA ໃນປີ 2023 ເພື່ອບັງຄັບຫ້ອງທົດລອງ AI ທີ່ກ້າວໜ້າໃຫ້ສົ່ງຂໍ້ມູນກ່ຽວກັບຄວາມປອດໄພຂອງແບບຈຳລອງ AI ຂອງພວກເຂົາ. ແຕ່ການບັງຄັບບໍລິສັດໃຫ້ຜະລິດສິນຄ້າ, ແທນທີ່ຈະພຽງແຕ່ໃຫ້ຂໍ້ມູນ, ຖືວ່າໃກ້ຄຽງກັບການເປັນເຈົ້າຂອງບໍລິສັດເທັກໂນໂລຍີຊັ້ນນຳ.

“ຖ້າພວກເຂົາຖືກບັງຄັບໃຫ້ອະນຸຍາດໃຫ້ໃຊ້ເທັກໂນໂລຍີຂອງພວກເຂົາໃນແບບທີ່ແມ່ນແຕ່ພວກເຂົາເອງກໍ່ເວົ້າວ່າບໍ່ເຊື່ອຖືໄດ້ໃນສະຖານະການສ່ຽງສູງທີ່ກ່ຽວຂ້ອງກັບຊີວິດ ແລະ ຄວາມຕາຍເຊັ່ນໃນສະໜາມຮົບ,” Ó hÉigeartaigh ກ່າວ, “ນັ້ນຈະສ້າງ precedent ທີ່ເປັນອັນຕະລາຍຫຼາຍ.”

ກະຊວງການທະຫານ ໄດ້ປະກາດຕໍ່ສາທາລະນະວ່າ ຕົນບໍ່ມີຄວາມຕັ້ງໃຈທີ່ຈະດຳເນີນການສອດແນມມวลຊົນ ຫຼື ຖອດຖອນມະນຸດອອກຈາກການຕັດສິນໃຈເລ็งເປົ້າໝາຍອາວຸດ, ແຕ່ຂໍ້ຂັດແຍ່ງດັ່ງກ່າວອາດຈະຂຶ້ນກັບວິທີທີ່ແຕ່ລະຝ່າຍກຳລັງກຳນົດ “ອັດຕະໂນມັດ” ຫຼື “ການສອດແນມ” ໃນການປະຕິບັດ. ຕົວແທນຂອງກະຊວງບໍ່ໄດ້ຕອບສະໜອງທັນທີຕໍ່ຄຳຮ້ອງຂໍຄຳເຫັນຈາກ The Verge.

ໂຄສົກ Anthropic ໄດ້ບອກ The Verge ວ່າ ບໍລິສັດຍັງຄົງ “ສືບຕໍ່ມີສ່ວນຮ່ວມດ້ວຍຄວາມຈິງໃຈ” ກັບກະຊວງການທະຫານ. ແນວໃດກໍ່ຕາມ, ໂຄສົກກ່າວວ່າ ພາສາສັນຍາທີ່ໄດ້ຮັບໃນຄືນໄດ້ເຮັດໃຫ້ “ບໍ່ມີຄວາມຄືບໜ້າເກືອບທັງໝົດ” ກ່ຽວກັບບັນຫາຫຼັກ. ພາສາໃໝ່ “ຖືກຕັ້ງເປັນການປະນີປະນອມ” ໄດ້ “ຖືກຈັບຄູ່ກັບພາສາທາງກົດໝາຍທີ່ຈະອະນຸຍາດໃຫ້ການປ້ອງກັນເຫຼົ່ານັ້ນຖືກລະເລີຍຕາມຄວາມປະສົງ,” ພວກເຂົາກ່າວ. Amodei ໄດ້ເອີ້ນການຂົ່ມຂູ່ຈາກກະຊວງການທະຫານວ່າ “ຂັດແຍ້ງກັນເອງ” ເນື່ອງຈາກ “ຝ່າຍໜຶ່ງຕິດປ້າຍພວກເຮົາວ່າເປັນຄວາມສ່ຽງດ້ານຄວາມປອດໄພ; ອີກຝ່າຍໜຶ່ງຕິດປ້າຍ Claude ວ່າເປັນສິ່ງຈຳເປັນຕໍ່ຄວາມໝັ້ນຄົງຂອງຊາດ.”

Anthropic ໄດ້ຮັບການຍ້ອງຍໍຈາກບາງແຫຼ່ງສຳລັບຄວາມເຕັມໃຈທີ່ຈະຢືນຢັນ. ອາຈານສອນກົດໝາຍ Harvard, Lawrence Lessig, ໄດ້ຊົມເຊີຍຖະແຫຼງການຂອງບໍລິສັດວ່າເປັນ “ການກະທຳທີ່ສວຍງາມຂອງຄວາມຊື່ສັດ ແລະ ຫຼັກການ” ແລະ ເອີ້ນມັນວ່າ “ຫາຍາກຢ່າງບໍ່ໜ້າເຊື່ອສຳລັບຍຸກຂອງພວກເຮົາ.”

ຄູ່ແຂ່ງ OpenAI ແລະ xAI ໄດ້ຕົກລົງສັນຍາກັບກະຊວງປ້ອງກັນປະເທດ ທີ່ອະນຸຍາດໃຫ້ໃຊ້ແບບຈຳລອງຂອງພວກເຂົາສຳລັບທຸກຈຸດປະສົງທີ່ຖືກກົດໝາຍ, ໂດຍ xAI ໄດ້ໄປໄກກວ່າໂດຍການຕົກລົງທີ່ຈະນຳໃຊ້ລະບົບຂອງຕົນໃນບາງສະພາບແວດລ້ອມທີ່ເປັນຄວາມລັບ. ແຕ່ພະນັກງານຫຼາຍກວ່າ 330 ຄົນ ຢູ່ຫ້ອງທົດລອງຄູ່ແຂ່ງ DeepMind ແລະ OpenAI ໄດ້ເຜີຍແຜ່ຈົດໝາຍເປີດສະໜັບສະໜູນ Anthropic ທີ່ຮຽກຮ້ອງໃຫ້ຜູ້ນຳຂອງຕົນປະຕິບັດຕາມການນຳຂອງບໍລິສັດ. “ພວກເຂົາພະຍາຍາມແບ່ງແຍງແຕ່ລະບໍລິສັດດ້ວຍຄວາມຢ້ານກົວວ່າອີກຝ່າຍໜຶ່ງຈະຍອມ,” ຈົດໝາຍດັ່ງກ່າວອ່ານ. “ຍຸດທະສາດນັ້ນຈະສຳເລັດຜົນໄດ້ພຽງແຕ່ເມື່ອບໍ່ມີໃຜຮູ້ວ່າອີກຝ່າຍໜຶ່ງຢືນຢູ່ໃສ.” ຜູ້ລົງນາມລວມມີນັກວິທະຍາສາດຄົ້ນຄວ້າອາວຸໂສ ແລະ ນັກຄົ້ນຄວ້າທັງທີ່ລະບຸຊື່ ແລະ ບໍ່ລະບຸຊື່ຈາກທັງສອງບໍລິສັດ.

Ó hÉigeartaigh ກ່າວວ່າ ຜົນຂອງຂໍ້ຂັດແຍ່ງດັ່ງກ່າວອາດຈະຂະຫຍາຍອອກໄປໄກກວ່າ Anthropic ເອງ. “ຖ້າກະຊວງປ້ອງກັນປະເທດ ຊະນະໃນເລື່ອງນີ້,” ລາວເວົ້າ, “ມັນຈະສ້າງ precedent ທີ່ຈະບໍ່ດີຕໍ່ຄວາມເປັນເອກະລາດຂອງບໍລິສັດເຫຼົ່ານີ້, ຫຼື ຄວາມສາມາດຂອງພວກເຂົາໃນການຮັກສາຫຼັກການດ້ານຈັນຍາບັນ.”

ບົດຄວາມນີ້ຖືກຈັດສົ່ງໂດຍຜູ້ສະເຫຼີມຄວາມຫນັງສືອື່ງ. SeaPRwire (https://www.seaprwire.com/) ບໍ່ມີການຮັບປະກັນ ຫຼື ການຢືນຢັນໃດໆ.

ປະເພດ: ຂ່າວຫົວຂໍ້, ຂ່າວປະຈຳວັນ

SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສຳລັບບໍລິສັດແລະອົງກອນຕ່າງໆ ເຫົາຄຳສະເຫຼີມຄວາມຫນັງສືອື່ງທົ່ວໂລກ ຄັກກວ່າ 6,500 ສື່ມວນຫຼວງ, 86,000 ບົດບາດຂອງບຸກຄົມສື່ຫຼື ນັກຂຽນ, ແລະ 350,000,000 ເຕັມທຸກຫຼືຈຸດສະກົມຂອງເຄືອຂ່າຍທຸກເຫົາ. SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສະຫຼວມພາສາຫຼາຍປະເທດ, ເຊັ່ນ ອັງກິດ, ຍີປຸນ, ເຢຍ, ຄູຣີ, ຝຣັ່ງ, ຣັດ, ອິນໂດ, ມາລາຍ, ເຫົາວຽດນາມ, ລາວ ແລະ ພາສາຈີນ.