ຫວັງວ່າ: ຂ່າວປອມ - ຫລືແທນທີ່ຈະ, ການເຜີຍແຜ່ຂ່າວປອມ - ໄດ້ກາຍເປັນບັນຫາໃຫຍ່ໃນເວລາສັ້ນໆ. ເຖິງແມ່ນວ່າມີການຂະຫຍາຍຕົວຂອງມັນ, ປະຊາຊົນຫຼາຍຄົນກໍ່ສາມາດເອົາໃຈໃສ່ໃນສະພາບການຕ່າງໆເພື່ອຊ່ວຍ sniff ອອກຈາກການໂຄສະນາປອມ. ມັນຈະເປັນການຍາກທີ່ຈະເຮັດກັບວິດີໂອພາບຖ່າຍ. ເວົ້າອີກຢ່າງ ໜຶ່ງ, ສາຍຕາບໍ່ເຊື່ອອີກຕໍ່ໄປ.

ຂ່າວປອມຈະເປັນທີ່ດຶງດູດໃຈຫຼາຍ. ຜູ້ຊ່ຽວຊານດ້ານການຮຽນຮູ້ຂອງເຄື່ອງຈັກໄດ້ພັດທະນາເຄືອຂ່າຍ neural ທີ່ໃຫ້ພາບເຄື່ອນໄຫວການຖ່າຍພາບຄືນ ໃໝ່ ທີ່ເປັນຈິງຂອງຮູບພາບວິດີໂອ.

ໃນບົດຂຽນທີ່ມີຫົວຂໍ້ ຮູບພາບບັນຍາກາດແບບເລິກເຊິ່ງນັກຄົ້ນຄວ້າໃຫ້ຂໍ້ສັງເກດວ່າວິທີການໃນປະຈຸບັນແມ່ນ ຈຳ ກັດໃນການ ໝູນ ໃຊ້ການສະແດງອອກທາງ ໜ້າ. ເຖິງຢ່າງໃດກໍ່ຕາມ, ວິທີການ ໃໝ່ ຂອງພວກເຂົາໂອນ ຕຳ ແໜ່ງ ຫົວ ໜ້າ 3D ເຕັມຮູບແບບ, ການສະແດງອອກທາງ ໜ້າ, ການຫມູນວຽນຂອງຫົວ, ກະພິບຕາແລະການເບິ່ງຈາກສາຍຕາຈາກແຫຼ່ງ ໜຶ່ງ ໄປຫາເປົ້າ ໝາຍ.

ນໍ້າເລິກ"ມັນພົວພັນກັບຂະບວນການຝັງຮູບພາບຫລືວິດີໂອທີ່ມີຢູ່ໃນຮູບພາບຫລືວິດີໂອທີ່ມາ. ເຕັກນິກນີ້ໄດ້ຮັບຄວາມນິຍົມໃນຄວາມຊົງ ຈຳ ເມື່ອບໍ່ດົນມານີ້ຍ້ອນວ່າມັນຖືກ ນຳ ໃຊ້ໃນການສ້າງຮູບພາບລາມົກທີ່ມີຊື່ສຽງປອມ

ຮູບພາບວິດີໂອທີ່ເລິກເຊິ່ງເຫຼົ່ານີ້, ເຖິງວ່າຈະມີຄວາມ ໜ້າ ເຊື່ອຖືຫຼາຍກວ່າ, ກໍ່ຄືກັນກັບສິ່ງທີ່ເລິກເຊິ່ງ (ທາງດ້ານເຕັກນິກ, ພວກມັນກໍ່ແຕກຕ່າງກັນເລັກນ້ອຍ, ແຕ່ວ່າຈຸດປະສົງ - ການເບິ່ງພາບ - ແມ່ນຄືກັນ).




ຈິດໃຈກໍ່ໂດດລົງໄປໃນທຸກໆການກະ ທຳ ທີ່ໂຫດຮ້າຍທີ່ເຕັກໂນໂລຢີນີ້ສາມາດສະ ໜອງ ແລະເປັນຄວາມກັງວົນທີ່ຖືກຕ້ອງ. Justus Thies, ຜູ້ຂຽນຮ່ວມບົດຂຽນແລະນັກຄົ້ນຄ້ວາວິທະຍາສາດທີ່ມະຫາວິທະຍາໄລເທັກນິກ Munich, ບັນທຶກ ຮູ້ກ່ຽວກັບຜົນກະທົບດ້ານຈັນຍາບັນຂອງໂຄງການຟື້ນຟູຊີວິດ.




ແຕ່ ສຳ ລັບຄວາມອັນຕະລາຍທີ່ອາດເກີດຂື້ນທັງ ໝົດ ທີ່ກ່ຽວຂ້ອງກັບການໃຊ້ປັນຍາປະດິດເພື່ອສ້າງວິດີໂອປອມ, ມີບາງ ຄຳ ຮ້ອງສະ ໝັກ ທີ່ໃຊ້ໄດ້ຈິງທີ່ສາມາດໃຊ້ປະໂຫຍດຈາກເຕັກໂນໂລຢີ. ດັ່ງທີ່ໄດ້ຍົກໃຫ້ເຫັນໃນວິດີໂອຂອງນັກຄົ້ນຄວ້າ, ການ ນຳ ໃຊ້ເຕັກນິກໃນການເວົ້າເຍາະເຍີ້ຍພາສາຕ່າງປະເທດສົ່ງຜົນໃຫ້ຜະລິດຕະພັນດີຂື້ນຢ່າງຫຼວງຫຼາຍ.

ເຖິງຢ່າງໃດກໍ່ຕາມ, ມັນບໍ່ສົມບູນແບບເພາະວ່າການປ່ຽນແປງທາງດ້ານ ໜ້າ ຕາຫລືການປັ້ນແຕ່ງຫົວໃຫຍ່ສາມາດ ນຳ ໄປສູ່ການປອມ. ເຖິງຢ່າງໃດກໍ່ຕາມ, ດ້ວຍຫົວຂໍ້ທີ່ຕັ້ງຢູ່ໃນສະຖານີແລະພື້ນຖານທີ່ຄົງທີ່, ມັນສາມາດເວົ້າໄດ້ວ່າສາຍຕາທີ່ບໍ່ໄດ້ຮັບການຝຶກອົບຮົມຈະມີຄວາມຫຍຸ້ງຍາກໃນການຊອກຫາບາງສິ່ງບາງຢ່າງທີ່ຜິດປົກກະຕິ.