จากการศึกษาของ Zilan Qian นักวิจัยจาก Oxford China Policy Lab พบว่า บริการพร็อกซีในตลาดมืดในประเทศจีนขายต่อสิทธิ์การเข้าถึงโมเดล AI ของ Claude ให้กับ Anthropic ในราคาเพียงหนึ่งในสิบของราคาทางการ โดยได้กำไรจากการขโมยข้อมูลประจำตัว การแทนที่โมเดล และการขายต่อคำขอและการตอบกลับของผู้ใช้

เครือข่ายพร็อกซีเหล่านี้ ซึ่งนักพัฒนาชาวจีนเรียกว่า "สถานีทางผ่าน" ดำเนินการอย่างเปิดเผยผ่าน GitHub, Taobao และ Telegram ผลการค้นพบของ Qian ยืนยันคำเตือนล่าสุดจากทำเนียบขาวและ Anthropic ในช่วงปลายเดือนเมษายน รัฐบาลสหรัฐฯ กล่าวหาหน่วยงานของจีนว่าทำการกลั่นกรองในระดับ "อุตสาหกรรม" โดยการฝึกฝนโมเดล AI ของตนเองจากคำตอบของ Claude ผ่านบัญชีพร็อกซีหลายหมื่นบัญชี ในขณะที่ Anthropic ระบุว่ามีบัญชีประมาณ 24,000 บัญชีที่เชื่อมโยงกับสตาร์ทอัพ AI อย่าง DeepSeek, Moonshot AI และ MiniMax ตั้งแต่เดือนกุมภาพันธ์
เฉียนได้อธิบายถึงแผนการที่ผู้เข้าร่วมแต่ละคนรับผิดชอบลิงก์หนึ่งหรือสองลิงก์ ผู้ให้บริการบัญชีในระดับบนสุดจะลงทะเบียนบัญชีจำนวนมากเพื่อรับเครดิต Anthropic มูลค่า 5 ดอลลาร์ฟรี ขายเครดิตที่ไม่ได้ใช้จากบัญชีอื่น ใช้ประโยชน์จากส่วนลดของบริษัทและสถาบันการศึกษา หรือแบ่งการสมัครสมาชิก Claude Max มูลค่า 200 ดอลลาร์ให้กับผู้ใช้หลายสิบคนผ่านการจำกัดโทเค็นรายชั่วโมง บัญชีบางบัญชีที่ชำระด้วยบัตรธนาคารที่ถูกขโมยมาก็ไปอยู่ในกลุ่มเครดิตโดยแทบไม่ต้องเสียค่าใช้จ่ายใดๆ เพื่อหลีกเลี่ยงการตรวจสอบตัวตน ตัวกลางจะเดินทางไปยังประเทศในแอฟริกาและละตินอเมริกาและจ้างคนมาทำการตรวจสอบตัวตนด้วยตนเอง ตัวอย่างที่ได้รับการบันทึกไว้คือตลาดมืดไบโอเมตริก Worldcoin ซึ่งมีการขายภาพสแกนม่านตาที่เก็บรวบรวมจากผู้อยู่อาศัยในกัมพูชาและเคนยาในราคาต่ำกว่า 30 ดอลลาร์
ความเสี่ยงอีกประการหนึ่งเกี่ยวข้องกับการแทนที่โมเดล AI นักวิจัยชาวเยอรมันจากศูนย์ความปลอดภัยข้อมูล CISPA Helmholtz ได้ทดสอบบริการพร็อกซีดังกล่าว 17 รายการ และพบว่าโมเดล AI ที่โฆษณาไว้มักไม่ตรงกับโมเดลที่ใช้งานจริง บริการ Access ที่วางจำหน่ายในชื่อ "Gemini-2.5" ได้คะแนน 37% ในการทดสอบทางการแพทย์ ในขณะที่ API อย่างเป็นทางการได้คะแนนเกือบ 84% ตามที่ Qian กล่าว แทนที่จะได้รับคำตอบจาก Claude Opus ตามที่ร้องขอ ผู้ใช้อาจได้รับคำตอบจาก Sonnet, Haiku หรือเครื่องมือ AI ของจีนที่มีราคาถูกกว่า
ผู้ให้บริการพร็อกซีจะบันทึกคำขอและการตอบกลับทั้งหมดที่ผ่านเซิร์ฟเวอร์ของพวกเขา นักพัฒนาชาวจีนหลายคนบอกกับ Qian ว่าค่าธรรมเนียมการเข้าถึงนั้นเป็นเพียงวิธีการดึงดูดลูกค้า ในขณะที่โมเดลธุรกิจที่แท้จริงสร้างขึ้นจากการรวบรวมข้อมูล HuggingFace มีชุดข้อมูลการให้เหตุผลของ Claude Opus 4.6 ที่ไม่ทราบที่มาอยู่แล้ว ข้อมูลดังกล่าวมีค่าอย่างยิ่งสำหรับการกลั่นกรอง เนื่องจากสามารถรวบรวมคำตอบของการให้เหตุผลอย่างเป็นระบบและนำไปใช้ในการฝึกโมเดลคู่แข่งได้ เซิร์ฟเวอร์พร็อกซีให้กระแสข้อมูลเดียวกันโดยใช้ความพยายามน้อยกว่า: ผู้ใช้ที่จ่ายเงินสร้างวัสดุการฝึกอบรมด้วยตนเอง
อย่างไรก็ตาม ภัยคุกคามไม่ได้จำกัดอยู่แค่การฝึกโมเดลเท่านั้น นักพัฒนาซอฟต์แวร์มักแบ่งปันส่วนของโค้ดที่เป็นกรรมสิทธิ์ โครงสร้าง API และตรรกะการตรวจสอบสิทธิ์กับเอเจนต์ AI หากการรับส่งข้อมูลนี้ผ่านพร็อกซีที่ไม่น่าเชื่อถือ บริษัทก็เท่ากับส่งข้อมูลภายในไปยังเซิร์ฟเวอร์ของบุคคลที่สามโดยไม่มีข้อผูกมัดใด ๆ ในการประมวลผลข้อมูลนั้น ความเสี่ยงที่คล้ายกันนี้เคยเกิดขึ้นในปี 2023 ที่ซัมซุง เมื่อวิศวกรของบริษัทส่งซอร์สโค้ดให้กับ ChatGPT ซึ่งทำให้ข้อมูลการผลิตเซมิคอนดักเตอร์ที่ละเอียดอ่อนถูกเปิดเผยต่อเซิร์ฟเวอร์ของ OpenAI
บริษัท Anthropic ได้ปิดกั้นการเข้าถึง Claude สำหรับหน่วยงานที่อยู่ภายใต้การควบคุมของจีนในเดือนกันยายน และต่อมาได้เพิ่มความเข้มงวดในการตรวจสอบผู้ใช้ อย่างไรก็ตาม งานวิจัยของ Qian แสดงให้เห็นว่ามาตรการใหม่แต่ละอย่างกลับสร้างตลาดใหม่สำหรับการหลีกเลี่ยงมาตรการเหล่านั้น แทนที่จะหยุดยั้งการเข้าถึงโดยไม่ได้รับอนุญาต
ที่มา:
ที่มา: 3dnews.ru
