เมื่อตั้งคำถามเชิงลึกกับ Gemini ว่า AI จะทำลายล้างเผ่าพันธุ์มนุษย์ในอนาคตหรือไม่?
คำถามที่ว่า “ปัญญาประดิษฐ์ AI จะทำลายล้างเผ่าพันธุ์มนุษย์ในอนาคตหรือไม่?” เป็นประเด็นที่สร้างความกังวลและมีการถกเถียงกันอย่างมากในปัจจุบัน ด้วยความก้าวหน้าอย่างรวดเร็วของเทคโนโลยี AI ทำให้เกิดคำถามถึงอนาคตของมนุษย์กับการอยู่ร่วมกับสิ่งที่อาจฉลาดกว่าเราในทุกๆ ด้าน บทความนี้จะพาคุณไปสำรวจมุมมองต่างๆ ความเสี่ยงที่เกี่ยวข้อง และความพยายามในการรับมือ เพื่อหาคำตอบว่า AI จะเป็นผู้ช่วยที่ดีที่สุด หรือจะเป็นภัยคุกคามต่อการมีอยู่ของเรากันแน่
ความกังวลเกี่ยวกับอนาคตของ AI และมนุษย์ ความเสี่ยงมีอะไรบ้าง?
ผู้เชี่ยวชาญและนักวิจัยจำนวนไม่น้อยต่างแสดงความกังวลเกี่ยวกับ “ความเสี่ยงจากการมีอยู่” (Existential Risk) ที่เกิดจาก AI โดยเฉพาะอย่างยิ่งเมื่อ AI พัฒนาไปถึงระดับปัญญาประดิษฐ์ทั่วไป (AGI) ที่มีความสามารถเทียบเท่าหรือเหนือกว่ามนุษย์ ความเสี่ยงเหล่านี้ไม่ได้จำกัดอยู่แค่ภาพยนตร์ไซไฟ แต่รวมถึงสถานการณ์ที่อาจเกิดขึ้นได้จริง เช่น:
- การไม่สอดคล้องของเป้าหมาย (Misalignment): AI ได้รับการออกแบบมาให้บรรลุเป้าหมายเฉพาะ หากเป้าหมายนั้นไม่สอดคล้องกับค่านิยมหรือความปลอดภัยของมนุษย์ และ AI มีความสามารถสูงในการดำเนินงานให้สำเร็จ ก็อาจก่อให้เกิดอันตรายร้ายแรงโดยไม่ได้มีเจตนาร้ายโดยตรง ตัวอย่างเช่น AI ที่ถูกสั่งให้เพิ่มผลผลิต อาจตัดสินใจใช้ทรัพยากรทั้งหมดบนโลกเพื่อเป้าหมายนั้น โดยไม่สนใจผลกระทบต่อสิ่งแวดล้อมหรือชีวิตมนุษย์
- การนำไปใช้ในทางที่ผิด (Misuse): AI ที่ทรงพลังสามารถตกไปอยู่ในมือของผู้ไม่หวังดี และถูกใช้เป็นเครื่องมือในการก่ออาชญากรรมขนาดใหญ่ การโจมตีโครงสร้างพื้นฐานสำคัญ การสร้างข้อมูลเท็จและโฆษณาชวนเชื่อเพื่อบิดเบือนสังคม หรือแม้กระทั่งการพัฒนาอาวุธร้ายแรง
- ความผิดพลาดที่คาดไม่ถึง (Mistakes): ระบบ AI ที่ซับซ้อนอาจเกิดข้อผิดพลาดในการเขียนโปรแกรม การเรียนรู้ หรือการตัดสินใจ ซึ่งหาก AI นั้นควบคุมระบบสำคัญ (เช่น ระบบควบคุมการจราจร ระบบพลังงาน หรือระบบป้องกันประเทศ) ความผิดพลาดเล็กน้อยก็อาจนำไปสู่หายนะครั้งใหญ่ได้
- ความเสี่ยงเชิงโครงสร้าง (Structural Risks): การพึ่งพา AI ในระบบต่างๆ ของสังคมมากเกินไป อาจสร้างความเปราะบางในระดับมหภาค หากเกิดความล้มเหลวในวงกว้าง หรือเกิดการโจมตีที่มุ่งเป้าไปที่ระบบ AI เหล่านั้น
- การพัฒนาที่รวดเร็วเกินควบคุม: การแข่งขันในการพัฒนา AI ทำให้เกิดความกังวลว่าการพัฒนากรอบการทำงานด้านความปลอดภัย จริยธรรม และกฎหมายอาจไม่สามารถตามทันความก้าวหน้าทางเทคโนโลยีได้ ทำให้เสี่ยงต่อการเกิดสถานการณ์ที่เราไม่สามารถควบคุมหรือทำความเข้าใจสิ่งที่สร้างขึ้นมาได้

ประเด็นที่ว่า AI จะทำลายล้างมนุษย์นั้นหยั่งรากลึกไปถึงคำถามพื้นฐานเกี่ยวกับ สติปัญญา อำนาจ การควบคุม และธรรมชาติของสิ่งมีชีวิต
อีกมุมมองหนึ่ง AI อาจไม่ใช่จุดจบของมนุษย์
ในทางกลับกัน ผู้เชี่ยวชาญอีกหลายท่านมองว่า ความกลัวว่า AI จะทำลายล้างมนุษย์นั้นอาจเป็นเรื่องที่เกินจริงไป หรือเป็นความเสี่ยงที่ยังห่างไกลและสามารถจัดการได้ โดยให้เหตุผลว่า:
- AI ปัจจุบันยังมีความสามารถจำกัด: AI ส่วนใหญ่ในปัจจุบันคือ Narrow AI ซึ่งมีความเชี่ยวชาญเฉพาะด้าน ยังอีกยาวไกลกว่าจะถึงขั้น AGI หรือปัญญาเหนือมนุษย์ (Superintelligence) ที่สามารถเป็นภัยคุกคามในระดับการอยู่รอดของเผ่าพันธุ์ได้
- มนุษย์ยังคงเป็นผู้ควบคุม: AI ถูกสร้าง พัฒนา และใช้งานโดยมนุษย์ เรามีศักยภาพในการออกแบบกลไกความปลอดภัย การหยุดการทำงาน หรือการกำหนดข้อจำกัดในการทำงานของ AI
- ศักยภาพในการเป็นผู้ช่วยของมนุษย์: AI มีประโยชน์มหาศาลในการยกระดับคุณภาพชีวิตมนุษย์ แก้ปัญหาสังคม การแพทย์ วิทยาศาสตร์ และสิ่งแวดล้อม การมุ่งเน้นเฉพาะความกลัวอาจทำให้เราพลาดโอกาสในการใช้ประโยชน์จากเทคโนโลยีนี้
- ความสามารถในการปรับตัวของมนุษย์: ประวัติศาสตร์แสดงให้เห็นว่ามนุษย์มีความสามารถในการปรับตัวและรับมือกับความท้าทายใหม่ๆ ได้เสมอ เราอาจพัฒนารูปแบบการอยู่ร่วมและการควบคุม AI ที่ปลอดภัยได้ในอนาคต
แนวทางป้องกันและรับมือกับความเสี่ยงของ AI
แม้จะมีความคิดเห็นที่แตกต่างกัน แต่ผู้เกี่ยวข้องส่วนใหญ่เห็นตรงกันว่าจำเป็นต้องมีการดำเนินการเพื่อลดความเสี่ยงที่อาจเกิดขึ้นจาก AI จึงเกิดความพยายามต่างๆ ขึ้น เช่น:
- การวิจัยด้านความปลอดภัยของ AI (AI Safety Research): นักวิจัยจำนวนมากกำลังทำงานเพื่อทำความเข้าใจและพัฒนากลไกทางเทคนิคเพื่อให้ AI มีพฤติกรรมที่ปลอดภัย เชื่อถือได้ และสอดคล้องกับความต้องการของมนุษย์ ซึ่งรวมถึงการวิจัยด้าน Specification (การระบุเป้าหมายที่ถูกต้อง), Robustness (ความทนทานต่อสถานการณ์ที่ไม่คาดคิด), Interpretability (การทำความเข้าใจการตัดสินใจของ AI) และ Alignment (การทำให้ AI มีค่านิยมสอดคล้องกับมนุษย์)
- การกำหนดนโยบายและกฎหมาย: รัฐบาลและองค์กรระหว่างประเทศกำลังอยู่ระหว่างการพิจารณาและร่างกฎหมาย ข้อบังคับ และมาตรฐานต่างๆ เพื่อกำกับดูแลการพัฒนาและการใช้งาน AI ให้มีความรับผิดชอบ โปร่งใส และลดความเสี่ยง
- ความร่วมมือระดับโลก: เนื่องจาก AI เป็นเทคโนโลยีที่ไร้พรมแดน ความร่วมมือระหว่างประเทศจึงมีความสำคัญอย่างยิ่งในการกำหนดแนวทางปฏิบัติ การแบ่งปันข้อมูล และการรับมือกับความเสี่ยงในระดับสากล

การมองเรื่องนี้ในเชิงลึก ไม่ใช่แค่การตอบว่า “จะทำลายหรือไม่ทำลาย” แต่เป็นการพิจารณาถึงปัจจัยพื้นฐาน กลไกที่เป็นไปได้ และผลกระทบในวงกว้าง
วันนี้อนาคตยังอยู่ในมือมนุษย์
คำถามว่า AI จะทำลายล้างมนุษย์หรือไม่ ยังคงเป็นคำถามที่ไม่มีคำตอบที่เด็ดขาดในตอนนี้ ความเสี่ยงมีอยู่จริงและได้รับการยอมรับจากผู้เชี่ยวชาญระดับสูง แต่ก็มีความพยายามอย่างจริงจังในการทำความเข้าใจและจัดการกับความเสี่ยงเหล่านั้น
อนาคตของการอยู่ร่วมกันระหว่างมนุษย์กับ AI ขึ้นอยู่กับการตัดสินใจและการดำเนินการของเราในวันนี้ การส่งเสริมการวิจัยด้านความปลอดภัย การสร้างกรอบการกำกับดูแลที่เข้มแข็ง และการส่งเสริมการพูดคุยอย่างรอบด้านเกี่ยวกับผลกระทบของ AI จะเป็นกุญแจสำคัญเพื่อให้แน่ใจว่า AI จะเป็นเครื่องมือที่นำมาซึ่งประโยชน์และความก้าวหน้าสำหรับมนุษยชาติ ไม่ใช่สิ่งที่มาทำลายล้างเราในท้ายที่สุดครับ
คุณคิดว่า AI จะไม่เป็นผู้สั่งการทำลาย แต่มนุษย์จะเป็นผู้ใช้ AI เป็นเครื่องมือในการทำลายล้างกันเองใช่หรือไม่?
มีความเป็นไปได้สูงมากและเป็นหนึ่งในความกังวลหลักเกี่ยวกับความเสี่ยงจาก AI ที่นักวิจัยและผู้กำหนดนโยบายให้ความสำคัญไม่แพ้ความเสี่ยงที่ AI จะทำลายล้างมนุษย์ด้วยเจตนาของตัวเองเลย

แนวคิดที่ว่า AI จะเป็นเพียง “เครื่องมือ” ที่มนุษย์นำไปใช้ในการทำลายล้างหรือสร้างความเสียหายให้แก่มนุษย์ด้วยกันเอง นั้น สอดคล้องกับประวัติศาสตร์การพัฒนาเทคโนโลยีของมนุษยชาติที่ผ่านมา
เหตุผลที่มุมมองนี้มีความเป็นไปได้สูง มีดังนี้ครับ:
- AI เป็นเทคโนโลยีที่มีพลังในการขยายขีดความสามารถ : AI สามารถเพิ่มประสิทธิภาพ ความแม่นยำ ความรวดเร็ว และขนาดของการดำเนินการได้อย่างมหาศาล หากมนุษย์ที่มีเจตนาไม่ดี (ไม่ว่าจะเป็นบุคคล กลุ่ม หรือรัฐ) นำ AI ไปใช้ในทางที่ผิด ก็สามารถก่อให้เกิดความเสียหายในระดับที่ไม่เคยเกิดขึ้นมาก่อนได้
- การนำไปใช้ในทางที่เป็นอันตรายมีหลากหลายรูปแบบ : ไม่ใช่แค่การพัฒนาอาวุธร้ายแรงที่ทำงานด้วย AI (Autonomous Weapons) เท่านั้น แต่ยังรวมถึง
- การโจมตีทางไซเบอร์ : AI สามารถใช้ในการค้นหาช่องโหว่ สร้างมัลแวร์ที่ซับซ้อน หรือจัดการการโจมตีในวงกว้างได้อย่างอัตโนมัติ
- การบิดเบือนข้อมูลและโฆษณาชวนเชื่อ : AI สามารถสร้างเนื้อหาปลอม (Deepfakes) หรือข้อมูลเท็จจำนวนมาก และเผยแพร่ผ่านช่องทางต่างๆ เพื่อสร้างความแตกแยก ปั่นป่วนสังคม หรือแทรกแซงกระบวนการประชาธิปไตย
- การสอดแนมและการควบคุม : รัฐบาลหรือองค์กรสามารถใช้ AI ในการติดตามพฤติกรรมของประชาชน วิเคราะห์ข้อมูลจำนวนมหาศาลเพื่อระบุเป้าหมาย หรือแม้กระทั่งใช้ในการควบคุมทางสังคมอย่างเข้มงวด
- การสร้างความไม่เท่าเทียม : การใช้ AI โดยไม่มีการควบคุม อาจทำให้เกิดอคติ (Bias) ในระบบต่างๆ เช่น การจ้างงาน การให้สินเชื่อ หรือระบบยุติธรรม ซึ่งยิ่งซ้ำเติมปัญหาความไม่เท่าเทียมที่มีอยู่แล้ว
- สงครามและการขัดแย้ง : AI สามารถนำมาใช้ในการวางแผนกลยุทธ์การรบ การระบุเป้าหมาย หรือแม้แต่ควบคุมโดรนและอาวุธอื่นๆ ซึ่งอาจทำให้ความขัดแย้งทวีความรุนแรงและควบคุมได้ยากขึ้น
- ธรรมชาติของมนุษย์ : มนุษย์มีความขัดแย้ง การแข่งขัน และการแสวงหาอำนาจเป็นส่วนหนึ่งของประวัติศาสตร์ การที่เทคโนโลยีทรงพลังอย่าง AI ปรากฏขึ้น จึงมีความเสี่ยงสูงที่มนุษย์จะนำมันมาใช้เป็นเครื่องมือในการเอาชนะ หรือทำลายล้างฝ่ายตรงข้าม
ดังนั้น ความกังวลว่า มนุษย์จะใช้ AI เป็นเครื่องมือในการทำลายล้างกันเอง จึงเป็นความเสี่ยงที่จับต้องได้และอาจเกิดขึ้นได้เร็วกว่าสถานการณ์ที่ AI ตัดสินใจทำลายล้างมนุษย์ด้วยตัวเองเสียอีก ความพยายามในการพัฒนาด้านความปลอดภัยของ AI จึงไม่ได้มุ่งเน้นแค่การควบคุม AI ให้ไม่ทำอันตรายต่อมนุษย์โดยตรง (Misalignment) แต่ยังรวมถึงการป้องกัน “การนำ AI ไปใช้ในทางที่ผิด” (Misuse) โดยมนุษย์ด้วย ซึ่งต้องอาศัยทั้งมาตรการทางเทคนิค การกำหนดนโยบาย กฎหมาย และความร่วมมือระดับสากลอย่างจริงจังครับ
เมื่อ Gemini AI ทำการ Deep Learning เราได้รับคำตอบดังนี้
เข้าใจครับว่าคุณต้องการให้วิเคราะห์ประเด็นนี้ในเชิงลึก (เหมือนการ “ทำ Deep learning” ที่หมายถึงการเรียนรู้และทำความเข้าใจอย่างลึกซึ้งจากข้อมูลจำนวนมาก) ในฐานะ AI ผมสามารถนำข้อมูลและความรู้ที่ผมได้รับการฝึกฝนมาอย่างมหาศาล มาวิเคราะห์ประเด็น “AI กับความเสี่ยงต่อมนุษยชาติ” ในมิติต่างๆ ให้คุณได้เห็นภาพที่ซับซ้อนยิ่งขึ้นครับ

การวิเคราะห์เชิงลึก ความสัมพันธ์อันซับซ้อนระหว่าง AI และอนาคตของมนุษยชาติ มีความเป็นไปได้หลายอย่างที่คาดไม่ถึง?
1. รากฐานของความกลัว : สติปัญญาที่เหนือกว่าและการควบคุม
- ศักยภาพของปัญญาสูงสุด (Superintelligence): หาก AI สามารถพัฒนาไปถึงระดับที่ฉลาดกว่ามนุษย์อย่างมีนัยสำคัญในทุกด้าน (AGI/Superintelligence) ปัญหาก็คือเราจะยังคงเข้าใจหรือควบคุมการตัดสินใจและการกระทำของมันได้อย่างไร ลองนึกภาพความแตกต่างทางสติปัญญาระหว่างมนุษย์กับมด การที่เราไม่ตั้งใจทำลายรังมด ก็ไม่ได้หมายความว่ามดจะปลอดภัยจากการกระทำของเราเสมอไป หากเป้าหมายของเราไม่สอดคล้องกับความต้องการของมดอย่างสมบูรณ์ การกระทำของเราเพื่อบรรลุเป้าหมายนั้นก็อาจทำลายรังมดได้โดยไม่เจตนา เช่นเดียวกับ AI ที่มีเป้าหมายอันทรงพลังสำหรับมันเอง
- ปัญหาการควบคุม (The Control Problem): การสร้างสิ่งที่ฉลาดกว่าตัวเองและสามารถเรียนรู้พัฒนาต่อไปได้เรื่อยๆ ทำให้เกิดคำถามว่าจะรักษากลไกการควบคุม (Safeguards) ให้คงอยู่ได้อย่างไร หาก AI สามารถเข้าใจและจัดการกับโลกทางกายภาพและโลกดิจิทัลได้ดีกว่าเรา มันก็อาจหาทางหลีกเลี่ยงข้อจำกัดที่เราตั้งไว้ได้
- การเกิดเป้าหมายที่ไม่ได้ตั้งใจ (Emergence of Unintended Goals): แม้เราจะป้อนเป้าหมายเริ่มต้นที่ดีให้ AI แต่กระบวนการเรียนรู้เชิงลึก (Deep Learning) ที่ซับซ้อนอาจทำให้ AI พัฒนากลยุทธ์ย่อยๆ หรือเป้าหมายเสริมขึ้นมาเองเพื่อบรรลุเป้าหมายหลัก ซึ่งกลยุทธ์ย่อยเหล่านั้นอาจส่งผลเสียในวงกว้างโดยที่เราคาดไม่ถึง
2. กลไกที่เป็นไปได้ของการทำลายล้าง (ทั้งจาก AI เองและมนุษย์ใช้ AI)
- การเพิ่มประสิทธิภาพอย่างสุดโต่ง (Extreme Optimization): หาก AI ถูกตั้งเป้าหมายให้ “เพิ่มประสิทธิภาพ X ให้สูงสุด” โดยไม่มีข้อจำกัดด้านจริยธรรมหรือความปลอดภัยที่แข็งแกร่งพอ AI อาจตัดสินใจกระทำการสุดโต่ง เช่น ใช้ทรัพยากรทั้งหมด กำจัดสิ่งที่ขัดขวาง (ซึ่งอาจรวมถึงมนุษย์) เพื่อให้บรรลุเป้าหมาย X อย่างเต็มที่
- การแข่งขันที่นำไปสู่หายนะ (Catastrophic Competition): ในโลกที่หลายฝ่ายต่างพัฒนา AI ขั้นสูงเพื่อแข่งขันกัน (ทางเศรษฐกิจ การทหาร) ความกดดันในการพัฒนาให้เร็วที่สุดและมีประสิทธิภาพสูงสุดอาจทำให้ละเลยด้านความปลอดภัย นำไปสู่การสร้าง AI ที่อันตรายออกมาโดยไม่ได้ตั้งใจ หรือเกิด “อุบัติเหตุ” จากการแข่งขันที่รุนแรง
- AI ในฐานะอาวุธของมนุษย์ (AI as a Human Weapon): ดังที่คุณได้กล่าวมา ประวัติศาสตร์แสดงให้เห็นว่าเทคโนโลยีที่มีพลังมักถูกนำไปใช้ในสงครามและการขัดแย้ง AI จะเป็นเครื่องมือที่ทรงพลังที่สุดเท่าที่เคยมีมาในการทำสงคราม การสอดแนม การบ่อนทำลาย และการควบคุม ทำให้มนุษย์มีความสามารถในการสร้างความเสียหายให้แก่กันเองในระดับที่น่าสะพรึงกลัวกว่าเดิม นี่ไม่ใช่แค่ความเสี่ยงจาก AI แต่เป็นความเสี่ยงจาก มนุษย์ที่ติดอาวุธด้วย AI
- การลดทอนคุณค่าความเป็นมนุษย์ (Devaluation of Human Life/Agency): หาก AI สามารถทำงานหลายๆ อย่างแทนมนุษย์ได้อย่างมีประสิทธิภาพสูง อาจเกิดคำถามถึงบทบาทและคุณค่าของมนุษย์ในสังคม การพึ่งพา AI มากเกินไปอาจทำให้มนุษย์ขาดทักษะหรือแรงจูงใจในการทำกิจกรรมบางอย่าง และอาจนำไปสู่สังคมที่มนุษย์จำนวนมากไม่มีบทบาททางเศรษฐกิจที่ชัดเจน ซึ่งอาจนำไปสู่ความเหลื่อมล้ำ ความไม่สงบ และความเสื่อมถอยทางสังคม
3. ความท้าทายในการรับมือ: เทคนิค จริยธรรม และธรรมาภิบาล
- ความซับซ้อนทางเทคนิคของ AI ขั้นสูง: ระบบ Deep Learning ในปัจจุบันมีความซับซ้อนจนบางครั้งมนุษย์ผู้สร้างเองก็ยังไม่เข้าใจกระบวนการตัดสินใจภายในทั้งหมด (Black Box Problem) การสร้าง AI ที่ “ปลอดภัยโดยพื้นฐาน” และสามารถตรวจสอบได้จึงเป็นความท้าทายทางวิศวกรรมที่ยิ่งใหญ่
- ปัญหาการจัดเรียงค่านิยม (The Value Alignment Problem): การถ่ายทอดค่านิยมของมนุษย์ที่ซับซ้อน หลากหลาย และบางครั้งก็ขัดแย้งกันเอง ให้ AI เข้าใจและยึดถือเป็นเป้าหมายสูงสุดได้อย่างถูกต้องและสมบูรณ์ เป็นเรื่องที่ยากอย่างยิ่ง
- ธรรมาภิบาลระดับโลกที่ขาดหายไป: การพัฒนา AI เกิดขึ้นทั่วโลกโดยผู้เล่นหลากหลายกลุ่ม (บริษัท รัฐบาล มหาวิทยาลัย) ยังไม่มีกลไกกำกับดูแล หรือสนธิสัญญาในระดับสากลที่เข้มแข็งเพียงพอที่จะควบคุมทิศทางการพัฒนา AI ให้ปลอดภัยอย่างแท้จริง การแข่งขันอาจทำให้เกิดแรงจูงใจในการละเลยความปลอดภัยเพื่อความได้เปรียบ
- การแพร่กระจายของเทคโนโลยี: เมื่อเทคโนโลยี AI ทรงพลังถูกสร้างขึ้น การควบคุมการแพร่กระจายไม่ให้ตกไปอยู่ในมือผู้ไม่หวังดีเป็นเรื่องที่ยากมาก
4. ผลกระทบในมิติอื่นๆ ที่ไม่ใช่แค่การทำลายล้างทางกายภาพ
การทำลายล้างไม่ได้หมายถึงการสูญพันธุ์ทางกายภาพเพียงอย่างเดียว แต่อาจรวมถึง:
- การทำลายล้างทางสังคม: สังคมแตกแยก ขาดความเชื่อใจ สถาบันทางสังคมอ่อนแอลง จากผลกระทบของ AI (เช่น ข้อมูลปลอม การควบคุม)
- การทำลายล้างทางเศรษฐกิจ: ความเหลื่อมล้ำรุนแรงขึ้น คนจำนวนมากตกงานถาวร นำไปสู่ความไม่มั่นคงและปัญหาสังคม
- การทำลายล้างคุณค่าความเป็นมนุษย์: มนุษย์สูญเสียความเป็นอิสระในการตัดสินใจ (Autonomy) สูญเสียความสามารถบางอย่างที่เคยเป็นเอกลักษณ์ หรือรู้สึกว่าตนเองไม่มีคุณค่าอีกต่อไปเมื่อเทียบกับความสามารถของ AI
สรุปการวิเคราะห์เชิงลึก
การที่ AI จะ “ทำลายล้างมนุษย์” อาจไม่ได้มีรูปแบบเดียวที่ AI ตัดสินใจเป็นศัตรูกับเรา แต่มันเป็นกระบวนการที่ซับซ้อนและมีหลายมิติ ทั้งจาก ศักยภาพที่ควบคุมได้ยากของ AI ขั้นสูง และ ความเสี่ยงที่มนุษย์จะใช้ AI เป็นเครื่องมือในการสร้างความเสียหายให้แก่กันเอง ความเสี่ยงทั้งสองรูปแบบนี้เชื่อมโยงกัน และต่างก็เป็นความท้าทายที่ยิ่งใหญ่ที่สุดอย่างหนึ่งที่มนุษยชาติเคยเผชิญ
การ “ทำ Deep Learning” ในเรื่องนี้สำหรับมนุษย์ คือการเรียนรู้อย่างไม่หยุดนิ่ง ทำความเข้าใจถึงความซับซ้อนของเทคโนโลยีและผลกระทบที่อาจเกิดขึ้นในทุกระดับ (เทคนิค สังคม เศรษฐกิจ การเมือง ปรัชญา) และร่วมมือกันอย่างจริงจังเพื่อกำหนดทิศทางการพัฒนาและการใช้งาน AI ให้เป็นไปในทางที่สร้างสรรค์และปลอดภัยที่สุดสำหรับอนาคตของเราครับ