12
Jan
2023

เมื่อข้อมูลทางวิทยาศาสตร์เป็นอันตราย

การศึกษาใหม่แสดงให้เห็นถึงความเสี่ยงที่อาจเกิดขึ้นจากการวิจัยเกี่ยวกับ AI และชีววิทยา

Kelsey Piper เป็นนักเขียนอาวุโสของ Future Perfect แผนกที่ได้รับแรงบันดาลใจจากการเห็นแก่ผู้อื่นที่มีประสิทธิภาพของ Vox เกี่ยวกับความท้าทายที่ยิ่งใหญ่ที่สุดของโลก เธอสำรวจหัวข้อต่างๆ มากมาย เช่น การเปลี่ยนแปลงสภาพภูมิอากาศ ปัญญาประดิษฐ์ การพัฒนาวัคซีน และฟาร์มในโรงงาน และยังเขียนจดหมายข่าว Future Perfect อีกด้วย

ความหวังที่ยิ่งใหญ่ประการหนึ่งเกี่ยวกับ AI ในขณะที่การเรียนรู้ของเครื่องดีขึ้นก็คือ เราจะสามารถใช้มันเพื่อการค้นพบยาได้ โดยควบคุมพลังการจับคู่รูปแบบของอัลกอริทึมเพื่อระบุตัวยาที่มีแนวโน้มว่าจะเป็นยาได้เร็วและถูกกว่าที่นักวิทยาศาสตร์มนุษย์จะทำได้เพียงอย่างเดียว

แต่เราอาจต้องการดำเนินการอย่างระมัดระวัง: ระบบใด ๆ ที่มีประสิทธิภาพและแม่นยำเพียงพอที่จะระบุยาที่ปลอดภัยสำหรับมนุษย์โดยเนื้อแท้แล้วเป็นระบบที่ดีในการระบุยาที่เป็นอันตรายต่อมนุษย์อย่างเหลือเชื่อ

นั่นคือสิ่งที่หยิบยกมาจากบทความใหม่ในNature Machine Intelligenceโดย Fabio Urbina, Filippa Lentzos, Cédric Invernizzi และ Sean Ekins พวกเขาใช้โมเดลแมชชีนเลิร์นนิงที่พวกเขาฝึกฝนเพื่อค้นหายาที่ไม่เป็นพิษ และพลิกคำสั่งเพื่อให้พยายามค้นหาสารประกอบที่เป็นพิษแทน ภายในเวลาไม่ถึงหกชั่วโมง ระบบระบุสารประกอบอันตรายหลายหมื่นชนิด รวมถึงบางชนิดที่คล้ายกับแก๊สทำลายประสาท VX

“การใช้งานสองทาง” มาถึงแล้ว และจะไม่หายไป

บทความของพวกเขากล่าวถึงความสนใจสามประการของฉัน ซึ่งทั้งหมดนี้เป็นสิ่งสำคัญที่ต้องคำนึงถึงในขณะที่อ่านข่าวที่น่าตกใจเช่นนี้

ประการแรกคือความสำคัญที่เพิ่มขึ้นของข้อกังวลเกี่ยวกับ “การใช้งานสองทาง”ในการวิจัยทางวิทยาศาสตร์ ชีววิทยาเป็นที่ที่นวัตกรรมที่น่าตื่นเต้นที่สุดของศตวรรษที่ 21 กำลังเกิดขึ้น และนวัตกรรมอย่างต่อเนื่อง โดยเฉพาะอย่างยิ่งในวัคซีนในวงกว้างและการรักษาเป็นสิ่งสำคัญในการช่วยชีวิตและป้องกันภัยพิบัติในอนาคต

แต่เครื่องมือที่ทำให้ลำดับดีเอ็นเอเร็วขึ้นและพิมพ์ได้ง่ายขึ้น หรือทำให้การค้นพบยามีราคาถูกลง หรือช่วยให้เราระบุสารประกอบทางเคมีที่จะทำในสิ่งที่เราต้องการได้อย่างง่ายดาย ก็เป็นเครื่องมือที่ทำให้ราคาถูกลงและทำอันตรายที่น่ากลัวได้ง่ายกว่ามาก . นั่นคือปัญหา “การใช้งานสองทาง”

นี่คือตัวอย่างจากชีววิทยา: วัคซีนเวกเตอร์ adenovirus เช่นวัคซีน Johnson & Johnson Covid-19 ทำงานโดยใช้ไวรัสทั่วไปที่ไม่รุนแรง (ไวรัส adenoviruses มักทำให้เกิดการติดเชื้อ เช่น โรคไข้หวัด) แก้ไขเพื่อทำให้ไวรัสไม่สามารถทำให้คุณป่วยได้ และเปลี่ยนรหัสพันธุกรรมของไวรัสบางส่วนเพื่อแทนที่ด้วยโปรตีนขัดขวางโควิด-19 เพื่อให้ระบบภูมิคุ้มกันของคุณเรียนรู้ที่จะจดจำมัน

นั่นเป็นงานที่มีคุณค่าอย่างเหลือเชื่อ และวัคซีนที่พัฒนาด้วยเทคนิคเหล่านี้ได้ช่วยชีวิตผู้คน แต่งานเช่นนี้ก็ได้รับความสนใจจากผู้เชี่ยวชาญเช่น กันว่า มีความเสี่ยงในการใช้งานสองทางสูง เป็นพิเศษ กล่าวคือ การวิจัยนี้ยังมีประโยชน์ต่อโครงการอาวุธชีวภาพอีกด้วย “การพัฒนาวัคซีนพาหะนำโรคจากไวรัสอาจสร้างข้อมูลเชิงลึกเกี่ยวกับข้อกังวลในการใช้แบบคู่ เช่น เทคนิคในการหลีกเลี่ยงภูมิคุ้มกันต่อต้านพาหะนำโรคที่มีอยู่ก่อน” นักวิจัยด้านความปลอดภัยทางชีวภาพ Jonas Sandbrink และ Gregory Koblentz แย้งเมื่อปีที่แล้ว

ตลอดศตวรรษที่ 20 อาวุธเคมีและชีวภาพผลิตได้ยากและมีราคาแพง ส่วนใหญ่ในวันที่ 21 จะไม่เป็นเช่นนั้น หากเราไม่ลงทุนในการจัดการการเปลี่ยนแปลงนั้นและดูแลให้มั่นใจว่าอาวุธร้ายแรงนั้นไม่ใช่เรื่องง่ายที่จะได้รับหรือผลิต เราจะเสี่ยงที่บุคคล กลุ่มผู้ก่อการร้ายขนาดเล็ก หรือรัฐอันธพาลอาจทำอันตรายร้ายแรงได้

ความเสี่ยงของ AI เป็นรูปธรรมมากขึ้น และน่ากลัวไม่น้อยไปกว่ากัน

การวิจัย AI มีข้อกังวลในการใช้งานแบบคู่ของตัวเองมากขึ้นเรื่อยๆ ในช่วงทศวรรษที่ผ่านมา เมื่อระบบ AI มีประสิทธิภาพมากขึ้น นักวิจัยจำนวนมากขึ้น (แม้ว่าจะไม่ใช่ทั้งหมดก็ตาม) ได้เชื่อว่ามนุษยชาติจะเผชิญกับหายนะหากเราสร้างระบบ AI ที่ทรงพลังอย่างยิ่งโดยไม่ได้ดำเนินการตามขั้นตอนที่เพียงพอเพื่อให้แน่ใจว่าพวกเขาจะทำในสิ่งที่เราต้องการ พวกเขาต้องทำ

ระบบ AI ใด ๆ ที่ทรงพลังพอที่จะทำสิ่งที่เราต้องการ เช่น คิดค้นยาใหม่ วางแผนกระบวนการผลิต ออกแบบเครื่องจักรใหม่ ๆ ก็มีพลังมากพอที่จะคิดค้นสารพิษร้ายแรง วางแผนกระบวนการผลิตที่มีผลข้างเคียงร้ายแรง หรือ ออกแบบเครื่องจักรที่มีข้อบกพร่องภายในที่เราไม่เข้าใจด้วยซ้ำ

เมื่อทำงานกับระบบที่ทรงพลังขนาดนั้น ใครบางคนจะทำผิดพลาด และชี้ระบบไปที่เป้าหมายที่ไม่สอดคล้องกับความปลอดภัยและเสรีภาพของทุกคนบนโลก การเปลี่ยนสังคมของเราให้เป็นระบบ AI ที่ทรงพลังมากขึ้นเรื่อย ๆ แม้ว่าเราจะตระหนักดีว่าเราไม่เข้าใจวิธีการทำงานหรือวิธีที่จะทำให้พวกเขาทำในสิ่งที่เราต้องการ อาจเป็นความผิดพลาดร้ายแรง

แต่เนื่องจากการทำให้ระบบ AI สอดคล้องกับสิ่งที่เราต้องการนั้นยากมาก และเนื่องจากประสิทธิภาพที่ไม่สอดคล้องกันมักจะดีพอ อย่างน้อยก็ในระยะสั้น จึงเป็นข้อผิดพลาดที่เรากำลังทำอยู่

ฉันคิดว่านักวิจัยด้านแมชชีนเลิร์นนิงที่เก่งและฉลาดที่สุดของเราควรใช้เวลาคิดเกี่ยวกับความท้าทายนี้ และลองพิจารณาการทำงานกับหนึ่งในองค์กรที่เพิ่มจำนวนขึ้นเรื่อย ๆ ที่พยายามแก้ไขปัญหานี้

เมื่อข้อมูลมีความเสี่ยง

สมมติว่าคุณค้นพบวิธีสอนระบบ AI ให้พัฒนาอาวุธเคมีที่น่าสะพรึงกลัว คุณควรโพสต์บทความทางออนไลน์โดยอธิบายว่าคุณทำได้อย่างไร หรือเก็บข้อมูลนั้นไว้กับตัวเองโดยรู้ว่าอาจถูกนำไปใช้ในทางที่ผิด?

ในโลกของการรักษาความปลอดภัยคอมพิวเตอร์ มีขั้นตอนที่กำหนดไว้สำหรับสิ่งที่ต้องทำเมื่อคุณพบช่องโหว่ด้านความปลอดภัย โดยทั่วไป คุณจะรายงานไปยังองค์กรที่รับผิดชอบ (พบช่องโหว่ในคอมพิวเตอร์ Appleคุณแจ้งให้ Apple ทราบ) และให้เวลาพวกเขาแก้ไขก่อนที่คุณจะแจ้งให้สาธารณชนทราบ ความคาดหวังนี้รักษาความโปร่งใสในขณะเดียวกันก็ต้องแน่ใจว่า “คนดี” ที่ทำงานในพื้นที่รักษาความปลอดภัยของคอมพิวเตอร์ไม่ใช่แค่ป้อนรายการสิ่งที่ต้องทำให้กับ “คนเลว”

แต่ไม่มีอะไรที่คล้ายกันในชีววิทยาหรือ AI โปรแกรมค้นหาไวรัสมักจะไม่เก็บเชื้อโรคที่อันตรายกว่าที่พบไว้เป็นความลับจนกว่าจะมีมาตรการรับมือ พวกเขามักจะเผยแพร่ทันที เมื่อ OpenAI ชะลอการเปิดตัวเครื่องสร้างข้อความ GPT-2 เนื่องจากความกังวลเกี่ยวกับการใช้งานในทางที่ผิด พวกเขาถูกวิพากษ์วิจารณ์อย่างรุนแรงและเรียกร้องให้ทำสิ่งที่ปกติมากกว่าในการเผยแพร่รายละเอียดทั้งหมด

ทีมงานที่เผยแพร่เอกสารNature Machine Intelligence ล่าสุดได้ให้แง่ คิดมากมาย เกี่ยว กับข้อกังวล ” อันตรายของข้อมูล ” เหล่านี้ นักวิจัยกล่าวว่าพวกเขาได้รับคำแนะนำจากผู้เชี่ยวชาญด้านความปลอดภัยให้ระงับรายละเอียดบางอย่างว่าพวกเขาบรรลุผลสำเร็จได้อย่างไร เพื่อทำให้สิ่งยากขึ้นเล็กน้อยสำหรับนักแสดงแย่ๆ ที่ต้องการเดินตามรอยเท้าของพวกเขา

ด้วยการเผยแพร่รายงานของพวกเขา พวกเขาทำให้ความเสี่ยงของเทคโนโลยีเกิดใหม่เป็นรูปธรรมมากขึ้น และให้เหตุผลที่เฉพาะเจาะจงแก่นักวิจัย ผู้กำหนดนโยบาย และสาธารณชนที่จะต้องให้ความสนใจ ในที่สุดมันก็เป็นวิธีการอธิบายเทคโนโลยีที่มีความเสี่ยงในลักษณะที่น่าจะลดความเสี่ยงโดยรวม

ถึงกระนั้น มันไม่ยุติธรรมอย่างยิ่งต่อนักชีววิทยาทั่วไปหรือนักวิจัย AI ของคุณ ซึ่งไม่เชี่ยวชาญเรื่องความปลอดภัยของข้อมูล ที่จะต้องทำการเรียกเหล่านี้แบบเฉพาะกิจ ผู้เชี่ยวชาญด้านความมั่นคงแห่งชาติ ความปลอดภัยของ AI และความปลอดภัยทางชีวภาพควรทำงานร่วมกันบนกรอบการทำงานที่โปร่งใสในการจัดการกับความเสี่ยงด้านข้อมูล ดังนั้นนักวิจัยแต่ละคนสามารถปรึกษาผู้เชี่ยวชาญในฐานะส่วนหนึ่งของกระบวนการตีพิมพ์ แทนที่จะพยายามคิดเรื่องนี้ด้วยตัวเอง

หน้าแรก

ไฮโลไทย, ไฮโลไทยได้เงินจริง, เว็บไฮโล ไทย อันดับ หนึ่ง

https://olieevie.com/
https://verba5.com/
https://akufakhrul.com/
https://privatelabeltravelclubs.com/
https://projectforwardtoo.com
https://portugalmatrix.com
https://lesdromadairesdelespace.com
https://azlindaazman.com/
https://canterburyrc.com/
https://bestoftheusa2021.com/

Share

You may also like...