แชร์

เมื่อ AI กลายเป็นภัยคุกคาม

อัพเดทล่าสุด: 15 ส.ค. 2024
241 ผู้เข้าชม
เมื่อ AI กลายเป็นภัยคุกคาม
เมื่อ AI กลายเป็นภัยคุกคาม

ปัจจุบันมีการใช้งาน AI อย่างแพร่หลายทั้งในองค์กรขนาดเล็ก กลาง ใหญ่ เพื่อความสะดวกในการดำเนินงานทำให้องค์กรตกเป็นเป้าหมายในการถูกโจมตีมากขึ้น

แม้ว่าจะมีระบบรักษาความปลอดภัยทางไซเบอร์ที่ดีแล้วก็ตาม แต่ AI ก็ช่วยให้แฮกเกอร์สามารถหลบเลี่ยงการป้องกันแบบเดิมๆ ได้อย่างง่ายดาย

วันนี้แม้ว่าองค์กรต่างๆ จะทุ่มเงินจำนวนมากเพื่อให้ความรู้ ฝึกอบรมกับพนักงานถึงวิธีการสังเกตสัญญาณการโจมตีแบบฟิชชิ่ง เช่น พิมพ์ผิด ใช้ภาษาและไวยากรณ์ไม่ถูกต้อง และอีเมลที่น่าสงสัย แต่การให้สังเกตุเรื่องง่ายๆ เหล่านั้นอาจกลายเป็นสิ่งที่ธรรมดาไปแล้ว

เพราะขณะนี้นี้ ใครๆ ก็สามารถสร้างอีเมลฟิชชิงแบบ Spear ได้โดยใช้ไวยากรณ์และรูปแบบได้อย่างถูกต้องและเหมาะสมแล้ว

ตัวอย่างเช่น ChatGPT เวอร์ชันที่เป็นอันตรายและการคิดค้น AI แบบใหม่ๆ ได้ผุดขึ้นเรื่อยๆ ตามเว็บมืดต่างๆ เพื่อช่วยลดอุปสรรคในการโจมตี

อย่างการใช้ AI แอบอ้างเป็นบุคคลอื่นในการโจมตีถือเป็นเรื่องที่พบบ่อยมากที่สุด โดยการใช้ประโยชน์จากความไว้วางใจของผู้ใช้งานผ่านการให้ความช่วยเหลือจาก ChatGPT ในการเขียนจดหมายและให้คำแนะนำวิธีใช้งาน ซึ่งทำให้แฮกเกอร์ใช้วิธีการที่ซับซ้อนยิ่งขึ้นในการสร้างอีเมลและจดหมายโต้ตอบแบบต่างๆ

อีกทั้งยังมีภัยคุกคามที่น่ากังวลใจมากกว่าเรื่องภาษา นั่นคือการแอบอ้างเป็นบุคคลอื่นโดยใช้เทคโนโลยี AI deepfake สร้างการวิดีโอที่เหมือนจริงของบุคคลที่มีชื่อเสียงได้อย่างน่าทึ่งทั้งสำเนียง ท่าทาง ใบหน้าและตัวอย่างเสียงที่สามารถสร้างคำพูดแปลกใหม่โดยที่เหยื่อไม่ทราบมาก่อนเลย

ปัจจุบัน การปลอมแปลงเสียงของเพื่อนร่วมงานหรือลูกค้ากลายเป็นเรื่องง่ายขึ้น ซึ่งแม้แต่ผู้เชี่ยวชาญบางคนก็อาจไม่สามารถตรวจพบได้

นอกจากนี้ AI ยังสามารถเลียนแบบสไตล์การโพสต์ข้อมูลบนเว็บไซต์ ในข่าวประชาสัมพันธ์ และช่องทางโซเชียลมีเดียเพื่อนำเสนอเวอร์ชันปลอมโดยผู้ใช้งานแยกไม่ออกเลยว่ามาจากองค์กรจริงหรือไม่

แต่เรื่องที่น่าสนใจคือ AI สามารถเขียนมัลแวร์ที่ออกแบบมาโดยเฉพาะเพื่อตรวจสอบและใช้ประโยชน์จากจุดอ่อนขององค์กรต่างๆ แม้อาจจะต้องปรับแต่งบ้างแต่ถือว่าคุ้มค่ามาก

อีกแง่หนึ่ง ความสามารถของ ChatGPT ในการสร้างโค้ดทำให้กลายเป็นชุด DIY kit ที่มีค่ามากสำหรับนักพัฒนาและวิศวกรในการทดสอบสคริปต์ อย่าง FraudGPT และ WormGPT เป็นโมเดลภาษาขนาดใหญ่ที่อยู่ใน Dark Web ซึ่งช่วยให้สามารถขอโค้ดที่เป็นอันตรายได้โดยไม่ต้องเขียนใหม่ตั้งแต่ต้นและสามารถจัดการกับระบบได้ง่ายมากยิ่งขึ้นโดยไม่จำเป็นต้องใช้เทคนิคขั้นสูงอีกต่อไป

นอกจาก AI จะเรียนรู้เกี่ยวกับช่องโหว่ภายในเครือข่ายขององค์กรและวิธีการเขียนโค้ดแล้ว ยังรู้ว่าโซลูชันความปลอดภัยทางไซเบอร์ที่องค์กรกำลังใช้อยู่คืออะไร และวิธีปิดการใช้งานทำได้อย่างไรบ้าง

ขณะนี้สิ่งที่จำเป็นสำหรับแฮกเกอร์คือการเรียกใช้ LLM (Large Language Model) ที่เป็นอันตรายที่โฮสต์ไว้อย่างเช่น FraudGPT และ WormGPT สามารถทำหน้าที่เป็นตลาดกลางที่ขับเคลื่อนด้วย AI สำหรับแฮกเกอร์เพื่อแลกเปลี่ยนเครื่องมือและกลยุทธ์ได้อย่างมีประสิทธิภาพ และยังมีศักยภาพที่จะกลายเป็นแหล่งรวมการโจมตีทางไซเบอร์แบบครบวงจร

มากกว่านั้น ยังให้ความช่วยเหลือในการสร้างข้อความฟิชชิงที่โน้มน้าวใจหรือการเขียนโค้ดที่เป็นอันตรายเพื่อให้การโจมตีประสบความสำเร็จอีกด้วย

สุดท้ายแล้ว เหล่าบรรดาแฮกเกอร์ใช้ AI เพื่อบิดเบือนข้อมูลไม่ว่าจะเป็นในองค์กรต่างๆ กระบวนการเลือกตั้ง ตามแพลตฟอร์มโซเชียลมีเดีย และในเสถียรภาพของโครงสร้างพื้นฐานที่สำคัญด้วยการจัดการใส่ข้อมูลเท็จ สร้างสิ่งแปลกปลอมจำนวนมากอย่างรวดเร็ว ให้กับชุดข้อมูลที่ดีเพื่อฝึก AI ให้เรียนรู้ จากนั้นจะทำให้ระบบคาดการณ์หรือตัดสินใจไม่ถูกต้อง 

ทั้งหมดนี้จึงแสดงให้เห็นแล้วว่า เทคโนโลยีก็มีข้อจำกัดอยู่มาก เมื่อ AI พัฒนาและฉลาดขึ้น วิธีการโจมตีของแฮกเกอร์ที่ใช้ก็จะฉลาดขึ้นตามเช่นกัน

ทางรอดเดียวในเวลานี้คือ ผู้ใช้งานและองค์กรต่างๆ จะต้องมีวิธีการรับมือที่เหมาะสมและไม่ประมาทเพื่อปกป้องระบบให้ปลอดภัยจาก AI ที่อันตรายครับ

สามารถติดตามบทความจาก CEO ผ่านทางบทความ Think Secure โดย คุณนักรบ เนียมนามธรรม (นักรบ มือปราบไวรัส) เป็นประจำทุกสัปดาห์ ได้ทางหนังสือพิมพ์กรุงเทพธุรกิจ หรือช่องทาง Online ที่ https://www.bangkokbiznews.com/category/tech/gadget  

ที่มา: หนังสือพิมพ์กรุงเทพธุรกิจ (ฉบับวันที่ 8 กรกฎาคม 2567)
https://www.bangkokbiznews.com/blogs/tech/gadget/1134912  
บทความที่เกี่ยวข้อง
เว็บไซต์นี้มีการใช้งานคุกกี้ เพื่อเพิ่มประสิทธิภาพและประสบการณ์ที่ดีในการใช้งานเว็บไซต์ของท่าน ท่านสามารถอ่านรายละเอียดเพิ่มเติมได้ที่ นโยบายการคุ้มครองข้อมูลส่วนบุคคล และ นโยบายคุกกี้
เปรียบเทียบสินค้า
0/4
ลบทั้งหมด
เปรียบเทียบ