(SeaPRwire) – ຜູ້ໃຊ້ແບ່ງປັນບັນຫາສ່ວນຕົວກັບ AI ເພີ່ມຂຶ້ນ, ແຕ່ກົດໝາຍໃນປະຈຸບັນບໍ່ມີການປົກປ້ອງທາງກົດໝາຍ, Sam Altman ໄດ້ເຕືອນ.
ອຸດສາຫະກໍາເຕັກໂນໂລຊີຍັງບໍ່ທັນໄດ້ແກ້ໄຂວິທີການປົກປ້ອງຄວາມເປັນສ່ວນຕົວຂອງຜູ້ໃຊ້ໃນການໂຕ້ຕອບທີ່ລະອຽດອ່ອນກັບ AI, CEO ຂອງຜູ້ນໍາອຸດສາຫະກໍາ OpenAI, Sam Altman, ໄດ້ຍອມຮັບ.
ທ່ານເຕືອນວ່າ ລະບົບໃນປະຈຸບັນຂາດການປ້ອງກັນທີ່ພຽງພໍສໍາລັບການສົນທະນາທີ່ເປັນຄວາມລັບ, ທ່າມກາງການເພີ່ມຂຶ້ນຂອງການນໍາໃຊ້ AI chatbots ໂດຍຜູ້ໃຊ້ຫຼາຍລ້ານຄົນ – ລວມທັງເດັກນ້ອຍ – ເພື່ອການປິ່ນປົວແລະການຊ່ວຍເຫຼືອທາງດ້ານຈິດໃຈ.
ໃນການສໍາພາດກັບພອດແຄສ This Past Weekend ທີ່ເຜີຍແຜ່ເມື່ອອາທິດທີ່ຜ່ານມາ, Altman ກ່າວວ່າຜູ້ໃຊ້ບໍ່ຄວນຄາດຫວັງວ່າຈະມີຄວາມລັບທາງກົດໝາຍເມື່ອໃຊ້ ChatGPT, ໃນຂະນະທີ່ທ່ານອ້າງເຖິງການບໍ່ມີກອບກົດໝາຍ ຫຼືນະໂຍບາຍທີ່ຄວບຄຸມ AI.
“ຜູ້ຄົນລົມກັນເຖິງເລື່ອງສ່ວນຕົວທີ່ສຸດໃນຊີວິດຂອງເຂົາເຈົ້າກັບ ChatGPT,” ລາວເວົ້າ.
ຜູ້ໃຊ້ AI ຈໍານວນຫຼາຍ – ໂດຍສະເພາະໄວໜຸ່ມ – ປະຕິບັດຕໍ່ chatbot ເໝືອນກັບນັກປິ່ນປົວ ຫຼື ຄູຝຶກຊີວິດ ເພື່ອຂໍຄໍາແນະນໍາກ່ຽວກັບຄວາມສໍາພັນ ແລະ ບັນຫາທາງດ້ານຈິດໃຈ, Altman ເປີດເຜີຍ.
ຢ່າງໃດກໍຕາມ, ບໍ່ຄືກັບການສົນທະນາກັບທະນາຍຄວາມ ຫຼື ນັກປິ່ນປົວ, ເຊິ່ງຖືກປົກປ້ອງໂດຍສິດທິພິເສດທາງກົດໝາຍ ຫຼື ຄວາມລັບ, ປະຈຸບັນບໍ່ມີການປົກປ້ອງດັ່ງກ່າວສໍາລັບການໂຕ້ຕອບກັບ AI. “ພວກເຮົາຍັງບໍ່ທັນໄດ້ຄິດອອກເທື່ອສໍາລັບເວລາທີ່ທ່ານລົມກັບ ChatGPT,” ລາວກ່າວຕື່ມ.
Altman ກ່າວວ່າບັນຫາຄວາມລັບແລະຄວາມເປັນສ່ວນຕົວໃນການໂຕ້ຕອບ AI ຕ້ອງການຄວາມເອົາໃຈໃສ່ຢ່າງຮີບດ່ວນ. “ສະນັ້ນ, ຖ້າທ່ານໄປລົມກັບ ChatGPT ກ່ຽວກັບສິ່ງທີ່ລະອຽດອ່ອນທີ່ສຸດຂອງທ່ານ ແລະ ຈາກນັ້ນມີການຟ້ອງຮ້ອງ ຫຼື ອັນໃດກໍຕາມ, ພວກເຮົາອາດຈະຖືກຮຽກຮ້ອງໃຫ້ຜະລິດຂໍ້ມູນນັ້ນ, ແລະ ຂ້າພະເຈົ້າຄິດວ່າມັນເປັນເລື່ອງທີ່ຍຸ່ງຍາກຫຼາຍ,” ລາວເວົ້າ.
OpenAI ອ້າງວ່າລຶບການສົນທະນາ ChatGPT ແບບຟຣີຫຼັງຈາກ 30 ວັນ, ຢ່າງໃດກໍຕາມ, ການສົນທະນາບາງອັນອາດຈະຖືກເກັບໄວ້ດ້ວຍເຫດຜົນທາງກົດໝາຍ ຫຼື ຄວາມປອດໄພ.
ບໍລິສັດກໍາລັງປະເຊີນກັບການຟ້ອງຮ້ອງຈາກ The New York Times ກ່ຽວກັບການລະເມີດລິຂະສິດທີ່ຖືກກ່າວຫາໃນການນໍາໃຊ້ບົດຄວາມຂອງ Times ໃນການຝຶກອົບຮົມຕົວແບບ AI ຂອງຕົນ.
ຄະດີດັ່ງກ່າວໄດ້ບັງຄັບໃຫ້ OpenAI ຮັກສາການສົນທະນາຂອງຜູ້ໃຊ້ຈາກຜູ້ໃຊ້ ChatGPT ຫຼາຍລ້ານຄົນ, ຍົກເວັ້ນຜູ້ໃຊ້ຂອງລູກຄ້າວິສາຫະກິດ, ເຊິ່ງເປັນຄໍາສັ່ງທີ່ບໍລິສັດໄດ້ອຸທອນ, ໂດຍອ້າງເຖິງ “ການລ່ວງລະເມີດ.”
ການຄົ້ນຄວ້າຫຼ້າສຸດໄດ້ພົບເຫັນວ່າ ChatGPT ມີຄວາມກ່ຽວຂ້ອງກັບອາການທາງຈິດໃນຜູ້ໃຊ້ບາງຄົນ. ອີງຕາມນັກຄົ້ນຄວ້າ, ຄວາມກັງວົນກໍາລັງເພີ່ມຂຶ້ນວ່າ AI chatbots ສາມາດເຮັດໃຫ້ສະພາບທາງຈິດຕະສາດຮ້າຍແຮງຂຶ້ນເນື່ອງຈາກວ່າມັນຖືກນໍາໃຊ້ຫຼາຍຂຶ້ນໃນສະພາບການສ່ວນຕົວແລະອາລົມ.
ບົດຄວາມນີ້ຖືກຈັດສົ່ງໂດຍຜູ້ສະເຫຼີມຄວາມຫນັງສືອື່ງ. SeaPRwire (https://www.seaprwire.com/) ບໍ່ມີການຮັບປະກັນ ຫຼື ການຢືນຢັນໃດໆ.
ປະເພດ: ຂ່າວຫົວຂໍ້, ຂ່າວປະຈຳວັນ
SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສຳລັບບໍລິສັດແລະອົງກອນຕ່າງໆ ເຫົາຄຳສະເຫຼີມຄວາມຫນັງສືອື່ງທົ່ວໂລກ ຄັກກວ່າ 6,500 ສື່ມວນຫຼວງ, 86,000 ບົດບາດຂອງບຸກຄົມສື່ຫຼື ນັກຂຽນ, ແລະ 350,000,000 ເຕັມທຸກຫຼືຈຸດສະກົມຂອງເຄືອຂ່າຍທຸກເຫົາ. SeaPRwire ເຫົາສະເຫຼີມຄວາມຫນັງສືອື່ງສະຫຼວມພາສາຫຼາຍປະເທດ, ເຊັ່ນ ອັງກິດ, ຍີປຸນ, ເຢຍ, ຄູຣີ, ຝຣັ່ງ, ຣັດ, ອິນໂດ, ມາລາຍ, ເຫົາວຽດນາມ, ລາວ ແລະ ພາສາຈີນ.