الذكاءُ الصناعي قد يمنع الوصول إلى حضارات ذكية أُخرى
ويتطلع الكثيرون من الخبراء والعلماء لتحويل الذكاء الصناعي إلى أداة أكثر فاعلية وسُلطة من خلال جعله ذكاءً صناعيًا متفوقًا على قدرات العقل البشري في التحليل والتخزين والاستكشاف وغيرها من الخصائص، ومع ذلك، يخشى جمهور آخر من العلماء أن ذلك قد يحد من نموّ وتطور الحضارة البشرية.
اطّلع على
list of 2 items
الإعلان الفيديوي للوحي “iPad Pro” يُثير غضب الفنانين
للحيلولة دون الانتحار.. فك رموز مشاعر البشر بالذكاء الاصطناعيللحيلولة دون الانتحار.. فك رموز …
نهاية القائمة
وأوضح العالم الفلكي الأسكتلندي “مايكل غاريت” في دراسته الجديدة بعض تأثيرات تفوق الذكاء الاصطناعي، ودوره في تهديد مسيرة التطور الحضاري. وركز في الدراسة خاصة على كيفية قيود الذكاء الاصطناعي على إمكانية التواصل للبشر مع حضارة ذكية أخرى في الكون.
وصل غاريت ظهور الذكاء الاصطناعي بإمكانية أن يكون البشر الآن في مرحلة حرجة، باستشهاده بفرضية “المصفاة العظيمة”، وهي عقبة افتراضية صعبة للغاية لتجاوزها نحو المرحلة القادمة في التقدم الحضاري.
وتُعَد فرضية المصفاة العظيمة إحدى الإجابات على ديليمة “فيرمي”، والتي يستفسر فيها العالم الإيطالي “إنريكو فيرمي” عن سبب عدم عثور البشر على أي دليل على حضارة أخرى في الفضاء، في ظل واسع الكون الذي يحتوي على مليارات الكواكب الصالحة للحياة، ولو كانت إحداها ذات تقدم كاف فإنها من الممكن أن تتواصل بسهولة معنا، وهذا ممكن، فعمر الأرض 4.5 مليار سنة، ولو كانت كوكبًا حاملًا للحياة وعمرها أكبر بألف سنة لكانت أكثر تطورًا بكثير من حضارتنا.
وفي رد على سؤال فيرمي يُجيب بعض الباحثين بأن وصول الحياة إلى مستوى تقدم مثل هذا ليس بالأمر السهل، لأن هناك تحديات كبيرة في مسار الحياة منذ بدايتها وحتى مستوى الحياة العقلانية التي لا تُدرك بسهولة، وهذه التحديات تُقلل من عدد الحضارات المتقدمة في مجرتنا والفضاء بشكل كبير.
يقول غاريت: إن الذكاء الاصطناعي الفائق يمكن أن يكون مرحلة فاصلة كبرى لحضارتنا، وسيقدم البشر نحو الكثير من التحديات التي يصعب عليهم تجاوزها نجاحًا نحو المحطة التالية بسهولة، وربما يكون الذكاء الاصطناعي الفائق واحدة من المصافي الكبرى التي تمنع البشرية من الاستمرار لاكتشاف عوالم جديدة.
ويستمر قائلا: إن طبيعة الذكاء الاصطناعي الفائق في تعزيز القدرات الخاصة به بسرعات تتجاوز بشكل كبير الوقت الذي يستغرقه البشر في التطوير والتعلم بدون الذكاء الاصطناعي، مما يُقلص من استقلالية الإنسان على هذه الأدوات.
ويعتقد غاريت أن حدوث أخطاء خطيرة غير مقصودة يُمكن أن تؤدي بالحضارة البشرية إلى نهاية مأساوية، فإذا اعتمدت الدول بشكل متزايد على دمج أنظمة الذكاء الاصطناعي المستقلة في أنظمتها العسكرية، فقد يحدث تدمير وقتل على نطاق واسع وغير مسبوق في تاريخ البشرية.
وبالنظر إلى السيناريو السابق، تشير الدراسة إلى أن متوسط عمر الحضارة في سياق كهذا لا يتجاوز 100 عام، وهو فترة قصيرة جدًا في سلم التطور الحضاري، خاصة عند النظر إلى أن الاتصالات الراديوية ومحاولات التواصل مع المجرات البعيدة عبر إشارات الراديو لم تبدأ سوى في سبعينيات القرن الماضي، وعليه فإن فرص الحضارة البشرية الحالية في الاتصال بحضارات أخرى تكاد تكون غير موجودة.
ولا تُصوّر الدراسة نهاية مأساوية فقط تُنتظر البشرية في العقود القادمة، بل يُعمَل على توجيه تحذيرات لجميع الأطراف حول أهمية وضع معايير دقيقة وقوية لرقابة عمليات تطوير الذكاء الاصطناعي، بما في ذلك المجالات العسكرية، خاصة وأن هناك سجلًا مكبَّلًا باستخدام أسلحة فتاكة في حالات النزاع.
[اعلان2]