Share

เมื่อ AI กลายเป็นภัยคุกคาม

Last updated: 15 Aug 2024
290 Views

เมื่อ AI กลายเป็นภัยคุกคาม

ปัจจุบันมีการใช้งาน AI อย่างแพร่หลายทั้งในองค์กรขนาดเล็ก กลาง ใหญ่ เพื่อความสะดวกในการดำเนินงานทำให้องค์กรตกเป็นเป้าหมายในการถูกโจมตีมากขึ้น

แม้ว่าจะมีระบบรักษาความปลอดภัยทางไซเบอร์ที่ดีแล้วก็ตาม แต่ AI ก็ช่วยให้แฮกเกอร์สามารถหลบเลี่ยงการป้องกันแบบเดิมๆ ได้อย่างง่ายดาย

วันนี้แม้ว่าองค์กรต่างๆ จะทุ่มเงินจำนวนมากเพื่อให้ความรู้ ฝึกอบรมกับพนักงานถึงวิธีการสังเกตสัญญาณการโจมตีแบบฟิชชิ่ง เช่น พิมพ์ผิด ใช้ภาษาและไวยากรณ์ไม่ถูกต้อง และอีเมลที่น่าสงสัย แต่การให้สังเกตุเรื่องง่ายๆ เหล่านั้นอาจกลายเป็นสิ่งที่ธรรมดาไปแล้ว

เพราะขณะนี้นี้ ใครๆ ก็สามารถสร้างอีเมลฟิชชิงแบบ Spear ได้โดยใช้ไวยากรณ์และรูปแบบได้อย่างถูกต้องและเหมาะสมแล้ว

ตัวอย่างเช่น ChatGPT เวอร์ชันที่เป็นอันตรายและการคิดค้น AI แบบใหม่ๆ ได้ผุดขึ้นเรื่อยๆ ตามเว็บมืดต่างๆ เพื่อช่วยลดอุปสรรคในการโจมตี

อย่างการใช้ AI แอบอ้างเป็นบุคคลอื่นในการโจมตีถือเป็นเรื่องที่พบบ่อยมากที่สุด โดยการใช้ประโยชน์จากความไว้วางใจของผู้ใช้งานผ่านการให้ความช่วยเหลือจาก ChatGPT ในการเขียนจดหมายและให้คำแนะนำวิธีใช้งาน ซึ่งทำให้แฮกเกอร์ใช้วิธีการที่ซับซ้อนยิ่งขึ้นในการสร้างอีเมลและจดหมายโต้ตอบแบบต่างๆ

อีกทั้งยังมีภัยคุกคามที่น่ากังวลใจมากกว่าเรื่องภาษา นั่นคือการแอบอ้างเป็นบุคคลอื่นโดยใช้เทคโนโลยี AI deepfake สร้างการวิดีโอที่เหมือนจริงของบุคคลที่มีชื่อเสียงได้อย่างน่าทึ่งทั้งสำเนียง ท่าทาง ใบหน้าและตัวอย่างเสียงที่สามารถสร้างคำพูดแปลกใหม่โดยที่เหยื่อไม่ทราบมาก่อนเลย

ปัจจุบัน การปลอมแปลงเสียงของเพื่อนร่วมงานหรือลูกค้ากลายเป็นเรื่องง่ายขึ้น ซึ่งแม้แต่ผู้เชี่ยวชาญบางคนก็อาจไม่สามารถตรวจพบได้

นอกจากนี้ AI ยังสามารถเลียนแบบสไตล์การโพสต์ข้อมูลบนเว็บไซต์ ในข่าวประชาสัมพันธ์ และช่องทางโซเชียลมีเดียเพื่อนำเสนอเวอร์ชันปลอมโดยผู้ใช้งานแยกไม่ออกเลยว่ามาจากองค์กรจริงหรือไม่

แต่เรื่องที่น่าสนใจคือ AI สามารถเขียนมัลแวร์ที่ออกแบบมาโดยเฉพาะเพื่อตรวจสอบและใช้ประโยชน์จากจุดอ่อนขององค์กรต่างๆ แม้อาจจะต้องปรับแต่งบ้างแต่ถือว่าคุ้มค่ามาก

อีกแง่หนึ่ง ความสามารถของ ChatGPT ในการสร้างโค้ดทำให้กลายเป็นชุด DIY kit ที่มีค่ามากสำหรับนักพัฒนาและวิศวกรในการทดสอบสคริปต์ อย่าง FraudGPT และ WormGPT เป็นโมเดลภาษาขนาดใหญ่ที่อยู่ใน Dark Web ซึ่งช่วยให้สามารถขอโค้ดที่เป็นอันตรายได้โดยไม่ต้องเขียนใหม่ตั้งแต่ต้นและสามารถจัดการกับระบบได้ง่ายมากยิ่งขึ้นโดยไม่จำเป็นต้องใช้เทคนิคขั้นสูงอีกต่อไป

นอกจาก AI จะเรียนรู้เกี่ยวกับช่องโหว่ภายในเครือข่ายขององค์กรและวิธีการเขียนโค้ดแล้ว ยังรู้ว่าโซลูชันความปลอดภัยทางไซเบอร์ที่องค์กรกำลังใช้อยู่คืออะไร และวิธีปิดการใช้งานทำได้อย่างไรบ้าง

ขณะนี้สิ่งที่จำเป็นสำหรับแฮกเกอร์คือการเรียกใช้ LLM (Large Language Model) ที่เป็นอันตรายที่โฮสต์ไว้อย่างเช่น FraudGPT และ WormGPT สามารถทำหน้าที่เป็นตลาดกลางที่ขับเคลื่อนด้วย AI สำหรับแฮกเกอร์เพื่อแลกเปลี่ยนเครื่องมือและกลยุทธ์ได้อย่างมีประสิทธิภาพ และยังมีศักยภาพที่จะกลายเป็นแหล่งรวมการโจมตีทางไซเบอร์แบบครบวงจร

มากกว่านั้น ยังให้ความช่วยเหลือในการสร้างข้อความฟิชชิงที่โน้มน้าวใจหรือการเขียนโค้ดที่เป็นอันตรายเพื่อให้การโจมตีประสบความสำเร็จอีกด้วย

สุดท้ายแล้ว เหล่าบรรดาแฮกเกอร์ใช้ AI เพื่อบิดเบือนข้อมูลไม่ว่าจะเป็นในองค์กรต่างๆ กระบวนการเลือกตั้ง ตามแพลตฟอร์มโซเชียลมีเดีย และในเสถียรภาพของโครงสร้างพื้นฐานที่สำคัญด้วยการจัดการใส่ข้อมูลเท็จ สร้างสิ่งแปลกปลอมจำนวนมากอย่างรวดเร็ว ให้กับชุดข้อมูลที่ดีเพื่อฝึก AI ให้เรียนรู้ จากนั้นจะทำให้ระบบคาดการณ์หรือตัดสินใจไม่ถูกต้อง 

ทั้งหมดนี้จึงแสดงให้เห็นแล้วว่า เทคโนโลยีก็มีข้อจำกัดอยู่มาก เมื่อ AI พัฒนาและฉลาดขึ้น วิธีการโจมตีของแฮกเกอร์ที่ใช้ก็จะฉลาดขึ้นตามเช่นกัน

ทางรอดเดียวในเวลานี้คือ ผู้ใช้งานและองค์กรต่างๆ จะต้องมีวิธีการรับมือที่เหมาะสมและไม่ประมาทเพื่อปกป้องระบบให้ปลอดภัยจาก AI ที่อันตรายครับ

สามารถติดตามบทความจาก CEO ผ่านทางบทความ Think Secure โดย คุณนักรบ เนียมนามธรรม (นักรบ มือปราบไวรัส) เป็นประจำทุกสัปดาห์ ได้ทางหนังสือพิมพ์กรุงเทพธุรกิจ หรือช่องทาง Online ที่ https://www.bangkokbiznews.com/category/tech/gadget 

ที่มา: หนังสือพิมพ์กรุงเทพธุรกิจ (ฉบับวันที่ 8 กรกฎาคม 2567)
https://www.bangkokbiznews.com/blogs/tech/gadget/1134912 


Related Content
This website uses cookies to enhance your experience and providing the best service from us. Please confirm the acceptance. You can learn more about our use of cookies from our Policy. Privacy Policy and Cookies Policy
Compare product
0/4
Remove all
Compare