منوعات

قيامة الأموات: الآن باتت ممكنة عبر الذكاء الاصطناعي

 23 أبريل 2026

ترجمة: آنّا نيُّوف

في وقت سابق من هذا العام، كتبت مقالًا عن مخاوفي بشأن كيفية تهميش التدخلات الطبية الحيوية واستخدامها حاليًا في معظم المجتمعات الغربية، من مرحلة الحَمْل حتى الموت، بغياب المرض. وتتعلق مخاوفي بشكل خاص باستخدام معطيات التكنولوجيا الحيوية على الأفراد الأصحاء بالذات.

عندما يرغب الناس ببساطة في التحكم في و/ أو تغيير بعض التحولات الفيزيولوجية الطبيعية تبعًا للتسلسل الزمني البيولوجي الطبيعي، وكأن في إمكانهم أن يعرفوا أن المضيَّ قدُمًا في تدخّلٍ معيَّن، من شأنه أن يغيّر فيزيولوجيتهم الطبيعية في وقت محدَّد، هو الطريق الصحيح أو الأفضل لاتِّباعه، بدون تردد وبدون طرح أسئلة، في تلك المقالة، قدَّمتُ التقنيات التي تستخدم في حالات سليمة، وتؤثر على كل مراحل دورة حياة الإنسان، وهي:

الحَمْل، النمو داخل الرحم، الولادة، النمو والنضج الجنسي والإنجاب فالشيخوخة، ثمّ الموت.

ومع ذلك، لم أقدِّر أن التدخلات التكنولوجية قد تجاوزت الآن حدود دورة الحياة الطبيعية والسليمة بطريقة تغوص في “الخارق للطبيعة” لأننا نمتلك الآن القدرة على استعادة الموتى إلى الحياة باستخدام الذكاء الاصطناعي. اليوم قد تستخدم النماذج اللغوية المتعددة، لجمعِ معلومات مكتوبة ومسجلة صوتيًا (إذا توفرت) لشخص متوفَّى، لاستعادة كلماته، وتفكيره، وتعبيراته إلى الكمبيوتر، ثم تُدمَج هذه المعلومات اللغوية (المعروفة أيضًا بالبصمة الرقمية) مع صور الشخص، سواء كانت صورًا فوتوغرافية أو مقاطع فيديو، بحيث يمكن للذكاء الاصطناعي إنشاء شخصية اصطناعية، أو أفاتار أو روبوت دردشة للمتوفَّى، أو روبوت شبح، يمكنه التواصل مع الأحياء من خلال شاشة الكمبيوتر أو من خلال نظارات تقنية الواقع الافتراضي.

الحقيقة هي أنّي كنت أجهل تمامًا أن هذا التواصل مع الأموات قد بدأ في الواقع منذ سنوات عديدة، كما يتَّضح من مقطع فيديو شوهِد ملايين المرات، يُظهر فتاة، توفيت في سنِّ السابعة، تتواصل مع والدتها من خلال تقنية الواقع الافتراضي (1) باستخدام نظارات ثلاثية الأبعاد، تضع الشخص الحيّ في بيئة افتراضية، حيث يظهر (مَن أعيد إحياؤه) لتظهر جميع التفاعلات بطريقة أكثر واقعية. لقد دهشت عندما قرأت في المقالة القصيرة التي نشرتْها Global News أن مبتكري هذه التقنية ظنّوا أنهم يقدِّمون للأم الحيّة نوعًا من الراحة والمواساة، وأن هذه كانت طريقتهم ليثبتوا أن تقنية الكمبيوتر ليست باردة. كان العيب الوحيد المذكور في المقالة القصيرة هو أن منتج الفيديو استغل حزن الأم للاستفادة بزيادة الظهور وتوليد الحركة على محطته، مما يشكل تضاربًا في المصالح (conflict of interests).

في المقالة المذكورة أعلاه، فوجئت بغياب الاعتبارات المتعلقة بالتأثيرات السلبية المحتملة على الأشخاص الأحياء الذين يتواصلون مع هذه الصور للأفاتار، فحاولت العثور على مزيد من المعلومات حول الاعتبارات السلبية الناتجة عن هذه التفاعلات على نفسية الأحياء.

إن غالبية ما وجدتُه لم يتحدث فعليًا عن الأضرار المحتملة، بل ركّز، بدلًا من ذلك، على سُبل مَساعدة هذه الممارسات في عملية الحِداد لإيصال عائلة المتوفَّى إلى مرحلة القبول برحيله. كيف يمكن اعتبار وجود روبوت ناطق للمتوفَّى مماثلًا لصوره على الجدران، ومحادثات خيالية مع الأحياء الراحلين في تلك الصور، أو احتضان متعلَّقات (أغراض) المتوفى، أو تسجيلات عائلية قديمة، أو أي شيء يسمح للأحياء بتذكر الشخص المتوفى والحزن عليه بشكل تلقائي.

هناك مخاوف جدية حول المحادثات التي تتبادلها هذه الروبوتات الشخصية، لأن الذكاء الاصطناعي قد يعطي معلومات خاطئة (مضلِّلة – حسب المصطلحات الحديثة) أو ببساطة قد يعطي نصائح سيئة. فهناك حادثة معروفة عن الذكاء الاصطناعي الذي نصح رجلًا بطلاق زوجته (وقع مؤخرًا عدد لا يستهان به من انتحارات المراهقين، جراء المحادثات مع AI في الولايات المتحدة الأميركية وبريطانيا. – المترجمة).

وقد لا يكون مستحيلًا أن يخطر على “بالِ” الروبوت الشبح، دعوة أحد الأقارب للانضمام إلى المتوفّى في الحياة الافتراضية. إن بعض الاعتبارات الأخرى التي وجدتها حول هذا الموضوع لم تشِر إطلاقًا إلى التأثير المحتمل على الأحياء، بل كانت مجرد جوانب تقنية عملية لهذه التكنولوجيا، حيث أن تكلفة صيانة البنية التحتية الرقمية اللازمة لإبقاء هذه الروبوتات الشبحية “حية” على الشبكة لفترات طويلة للتواصل مع الأحياء في أي لحظة، هي تكلفة باهظة من ناحية المال والطاقة.

كما إني تساءلت عن التخوفات المتعلقة بكيفية انتقاء الأشخاص الذين سيحق لهم قانونيًا “استعادة الأموات” إلى الحياة باستخدام الذكاء الاصطناعي.

ماذا سيحدث، مثلًا، إذا أراد رجل استعادة زوجته إلى الحياة وكان أطفالهما معارضين لذلك، ولمَنِ تكون الكلمة الفصل في مسألة استعادة شخص ما إلى الحياة باستخدام الذكاء الاصطناعي؟ (5-2).

أخيرًا، تمكنت من إيجاد ما كنت أبحث عنه، وما يعنيني على وجه الخصوص، وهو مقال يعترف بطبيعة هذه التكنولوجيا، كسلاح ذي حدين يتعلق بالحالة النفسية والصحة العقلية للأحياء المتفاعلين مع الروبوتات الشبحية (5). في هذا المقال يتّضح كيف أن الحداد المعقد كهذا، وهو مشاعر الفقدان التي تسبب الوهن، لا تتحسن حتى بمرور الوقت (7). وقد تتفاقم من خلال التفاعل مع روبوت شبح، مما يحول عملية الحزن/ الحداد الى حالة نفسية مرضية نهائية (مع احتمال ظهور هلوسات وحتى أزمة نفسية).

ومن المثير للاهتمام (أو المقلق)، أن أيًا من المقالات التي عثرتُ عليها لم يتناول اعتبارًا أساسيًا أُشير إليه في بعض الحالات، عندما ناقش المؤلفون نوعية المعلومات التي يمكن أن يتبادلها الروبوت/ الشبح مع الشخص الحي (على سبيل المثال، الروبوت الشبح قد يكذب)، أو عندما ناقشوا مدى قدرة الروبوت/ الشبح على استعادة إنشاء طريقة التعبير عن بعض آراء الشخص المتوفَّى، ومدى دقة طريقة الحديث الشخصية ونبرة الصوت وتغير العبارات، هذا الاعتبار الأساسي الذي أشارت إليه هذه الأمثلة ضمنًا. ولكن ما لم يذكره صراحة ولم يستكشفه أحد، هو شيء يمكن تلخيصه في السؤال التالي: ما الذي نعيده؟ من البديهي أننا نعلم أنه ليس الشخص الحقيقي (مهما كان تعريف الشخص، وفقًا للنظم العقائدية الدينية أو الأخلاقية التي تعتنقها) إذًا، ما الذي نستعيده؟

إنني لا أدّعي أن لدي إجابة على السؤال أعلاه، وأعتقد أن مطوّري الذكاء الاصطناعي وعلماء النظام العصبي وعلم النفس والطب النفسي والأخلاقيات الحيوية واللاهوت، قد يجيبون على هذا السؤال بطرق متنوعة. لكنني لست خبيرًا في الأخلاقيات، ولا شخصًا متدينًا، ولا حتى مطوِّرًا متخصصًا في أنظمة الذكاء الاصطناعي. إن وجهة نظري هي وجهة نظر طبيب أكاديمي معنيٍّ بالأمر، يستخدم تكنولوجيا المعلومات من الذكاء الاصطناعي منذ ما يقارب عشرين عامًا في مجال البحوث الطبية الحيوية، ورأيت بنفسي كيف يتعامل العلماء مع نتائج (القرارات) التي ينتجها الذكاء الاصطناعي. ومن واقع خبرتي فإن هذا التعامل ليس متناظرًا أبدًا، وليس الإنسان هو مَن يملك القرار النهائي في الغالب، وما أعنيه بذلك هو أن معظم البشر سينحازون عمومًا إلى أي نتيجة أو قرار يقدّمه الذكاء الاصطناعي، إلا إذا كانت نتائج الذكاء الاصطناعي خاطئة بشكل صارخ، لدرجة أن طفلًا في الثانية من عمره يمكنه اكتشاف الخطأ.

إن معارضة أو تجاوز النتائج التي تعطيها آلة، من المفترض أنها ذكية، تتطلب انتباهًا وخبرة كبيرين، بالإضافة إلى (ما أحسبه غاية في الأهمية) نوعية معينة من الباحثين المتعاملين مع نتائج البحث العلمي، لأداء المهمة بشكل صحيح بدون الاعتماد على الآلة في المقام الأول.

عندما يكون خطأ الذكاء الاصطناعي غير واضح يحُول ارتياب الإنسان في نفسه دون تصحيح خطأ الآلة، فينتهي الأمر بالشخص إلى الموافقة على النتيجة التي يقدمها الذكاء الاصطناعي المتقدم فرضًا.

لقد علمتني خبرتي في العمل مع تقنية الذكاء الاصطناعي في مجال الطب أن قلة قليلة من الناس لديهم القدرة على الانتباه والثقة الكافية بالنفس لاكتشاف الأخطاء الدقيقة والتحقق منها، عوضًا عن أن يخطِّئوا أنفسهم لصالح الذكاء الاصطناعي. إن “الدقة” ليست مرادفًا لـ “غير مهم” أو “غير ذي صلة”، ففي بعض الأحيان تكون دقّة المعلومة أمرًا حاسمًا لحل مشكلة ما (طبية أو غيرها).

كما يقلقني عدم توخّي الحذر إزاء ما يتعلق باحترام دورة حياة الإنسان الطبيعية، التي كنت أعتقد بسذاجة أنها تنتهي بموتنا، ولكن يبدو الآن أنها تمتد إلى ما بعد الحياة نفسها بفضل الثورة الحالية في مجال الذكاء الاصطناعي. لذا فإني سأعرض في الفقرات التالية مخاوفي بشأن الجوانب السلبية المحتملة للتواصل مع أي شيء “يحييه” الذكاء الاصطناعي، في محاولة للإجابة على سؤال يشغلني وهو: هل حقًّا يجب علينا مواصلة استكشاف وتحسين ومحاولة التحكم بهذا التواصل مع الروبوتات الأشباح (الذي يمتد ليشمل التفاعلات المختلفة مع روبوتات الدردشة وأي نظم في التواصل الآلي مع البشر)، أم علينا الابتعاد عنها بحذر؟

وبعد هذه الاستقصاءات، أَخْلَص إلى:

ملاحظتي الأولى وسؤالي حول ما يحدث في مجال روبوتات الذكاء الاصطناعي الشبحية هو: لماذا لا نجد كثيرًا من المقالات التي تتناول السؤال المطروح أعلاه “ما الذي يعيده الذكاء الاصطناعي من عالم الأموات؟”.

لماذا لا يثير اهتمامَ مزيد من الفلاسفة وعلماء النفس، أو الباحثين بالعلوم العصبية، جوهرُ ما يمكن للذكاء الاصطناعي أن يُحييه، لعلَّ أحد الأسباب أو (السبب) هو أن العديد من الباحثين في النظام العصبي يعتبرون أن الدماغ البشري يعمل مثل الكمبيوتر. وأتصور أنهم يعلمون أن هذا خطأ، لكنهم يصرون على استخدام المطابقة بين الاثنين. وأعتقد أنهم لهذا السبب ابتكروا مفهوم ومصطلح الذكاء الاصطناعي كبداية، ولم يختاروا لهذه التكنولوجيا اسم معالجة العمليات الخوارزمية، مثلًا، أو معالجة المعلومات التحليلية، أو المعالجة الاصطناعية للمعلومات أو أية تسمية أخرى من هذا القبيل.

إن استخدام مصطلح “ذكاء” لوصف هذه التكنولوجيا يثير اهتمامًا كبيرًا، ومهمًّا للغاية لأنه يوحي بفكرة أن الآلات قادرة بالفعل على التفكير، كما قد يكون هذا الاختيار ببساطة لإضفاء خصائص بشرية على هذه التكنولوجيا لجعلها تبدو أكثر أمانًا. وأيًّا كانت الحال، يبقى السؤال الأساسي: هل يعقل أن يكون الذكاء سمة من سمات الآلة أو أي جسم غير حيٍّ صنعه الإنسان؟ ما هو الذكاء الاصطناعي، ما هي أوجه الشبه والاختلاف بينه وبين وظائف وسمات الدماغ البشري؟

إذا أخذنا بعين الاعتبار بعض التعريفات المعتمَدة في المصادر شائعة الاستعمال (9-8) فإن الذكاء الاصطناعي يُعرَّف بأنه “الذكاء الذي تظهره الآلات ولا سيَّما الحاسوب” (8)، أو “قدرة أنظمة الكمبيوتر أو الخوارزميات على محاكاة السلوك البشري الذكي” (9). علينا أن نفرِّق بين هذه التعريفات مقابل تعريف الذكاء البشري بأنه القدرة على التجريد والمنطق والفهم والوعي الذاتي، والتعلم والمعرفة العاطفية والاستدلال والتخطيط، والإبداع والتفكير النقدي وحل المشكلات (15). للوهلة الأولى يشير هذا التعريف للذكاء البشري إلى مراعاة العاطفة والإبداع، وهما خاصيتان يصعب التوفيق بينهما وبين قدرة الآلة.

وهكذا، من خلال هذه التعريفات ندرك أن الذكاء الاصطناعي لا يشمل النطاق الكامل لخواص الذكاء البشري.

يقتصر الذكاء الاصطناعي على محاكاة طريقة خوارزمية لمعالجة المعلومات، فهي تتعلق بالمنطق والاستدلال المذكورين في تعريف الذكاء البشري على الرغم من أنها تقوم بذلك من خلال آلة اصطناعية، لذا وأقولها باحتجاج: أن هذه العمليات لا تزال مختلفة في جوهرها.

والمثير للفضول أن هذه الوظائف، بالرغم من كونها اصطناعية، قد تكون أقرب إلى طريقة عمل نصف الكره الدماغية الأيسر، بينما نصف الكرة الدماغية الأيمن، يعمل بطريقة لا يمكن للآلات أن تقلدها أبدًا، بحكم أنها غائبة تمامًا في معادلة الذكاء الاصطناعي. إدْ في الواقع يزودنا النصف الأيمن من دماغنا بالتعاطف، وفهمِ المعاني الضمنية، والاستعارات، والفكاهة، والحس الجمالي بدلًا من الأجزاء التي تشكل الكل، وما إلى ذلك (11).

ما تجدر الإشارة إليه، أن هذه الخصائص غالبًا ما تكون غائبة في تعريفات الذكاء البشري في الوسائل الشعبية المتاحة كمختلف القواميس وطرق البحث على الويب، ولكن من المهم جدًا التأكيد على أنها غير موجودة في أجهزة الكمبيوتر.

في الواقع، هناك العديد من الخصائص الحصرية للبشر ولا يمكن للكمبيوتر استنساخها، لكني سأكتفي بذكر واحدة أعتبرها أساسية لجوهر إنسانيتنا، وأعتبرها ثغرة عظيمة في التفاعلات مع أنظمة الذكاء الاصطناعي، هي سمة التعاطف، عملية الفهم والوعي والحساسية تجاه مشاعر، وأفكار وتجارب الآخرين (12).

ولا شك في أن روبوتات الذكاء الاصطناعي لا تملك القدرة على التواصل والتفاعل مع البشر الأحياء بالتعاطف. قد يحاولون تقليده، فيؤدي ذلك إلى تفاعل مصطنع، والمخيف أن الشخص الحي قد يتلقّى هذا التفاعل، كحقيقة.

تعود قدرة الآلات على الدخول في محادثة مع بشر، واستعادة صياغة العبارات التي يستخدمها شخص حي إلى أول نظام كمبيوتر استخدم اللغة لاستكشاف التواصل بين الإنسان والآلة في الستينيات – أول روبوت دردشة على الإطلاق، كان اسمه ELIZA حينها فوجئ مبتكرُه، باعتقاد الأشخاص المتفاعلين مع ELIZA أن لديه بالفعل مشاعر بشرية بما في ذلك التعاطف (13).

وهذا أمر مهم، لأنه عندما يتواصل الناس بوجود قناعة بحضور التعاطف في العلاقة يكونون أكثر عرضة لمشاركة المزيد من الخصوصيات، وتظهر الثقة فيصبح الناس أكثر عرضة للاستغلال والتحايل.

لماذا أتجاهل جميع الخصائص الأخرى التي يمكن أن أعتبرها حصرية للبشر وأخص “التعاطف” باهتمام استثنائي؟

ولماذا تقلقني حقيقةُ أن الأحياء قد يقتنعون بأن الروبوتات تُظهر التعاطف لأن انعدام التعاطف سِمة أساسية للسلوك السيكوباتي (14-17)، ويشترك فيها مختلف المتلازمات النفسية والعصبية، مثل اضطراب الشخصية الحدية والنرجسية والذهان. إن غياب التعاطف، بحسب نوع المشكلة وشدتها، يمكن أن يكون نقصًا خطيرًا، على سبيل المثال: غالبًا ما تؤدّي السيكوباتيا (الاختلال العقلي) إلى انحراف عدائي مستمرّ للمجتمع، وسلوك إجرامي (18). ويمكن أن يكون المرضى النفسيون بارعين جدًا في التظاهر بالتعاطف من أجل كسب ثقة ضحاياهم. لذا إذا لم تكن روبوتات الذكاء الاصطناعي الشبحية قادرة إلّا على التواصل غير العاطفي مع الأحياء، فعلى أقل تقدير يجب أن نتساءل عن التأثير الإيجابي الذي توفره هذه التكنولوجيا للأحياء إذا سألنا الناس عمّا إذا كانوا يرغبون في التواصل مع شخص غير قادر على التعاطف (ولكن ربما يستطيع تمثيله بشكل مقنع) فهل سيكونون مهتمين؟

إذا أخبرنا الناس بأن استعادة روح روبوت شبح غير متعاطف عبر الذكاء الاصطناعي قد تعادل إنشاء نسخة نرجسية ومريضة نفسيًا من شخص ميت عرفوه وأحبّوه من قبل، فهل سيرغبون بالتواصل معه؟ بعبارة أخرى، ألا يمكن أن تؤدي هذه التكنولوجيا إلى خلق سيناريو على غرار رواية الخيال العلمي عن حداد الدكتور جيكل واستعادة السيد هايد بالذكاء الاصطناعي لروبوت لويس ستيفنسون.

ولكن إمكانية استعادة إحياء الأحياء بشكل روبوت دردشة للتواصل مع أفراد الأسرة، ليست إلا أحد التطبيقات المحتملة لهذه التكنولوجيا، ففي النهاية، إذا كان بإمكاننا استعادة الأشخاص من الموت، لماذا نقتصر على أفراد الأسرة و/ أو مَن فقدناهم مؤخرًا؟ يفكر بعض العلماء في استعادة شخصيات بارزة مثل فلاسفة من القرون الماضية أصبحوا، بفضل أعمالهم المكتوبة الكثيرة، مرشحين مثاليين لعملية إحياء بالذكاء الاصطناعي. ويمكنني أن أفهم مدى جاذبية وجود شعراء بيننا ليعلّمونا الفلسفة لتطبيقها على وضعنا الراهن.

والخلاصة، لا يبدو أننا ننجز المهمة الأخلاقية بخير في العصر الحديث.

هل بإمكاننا، نحن الأحياء، قراءة تحليل ومناقشة النصوص التي تركها لنا فلاسفة الماضي العظماء لتقوم عقولنا بإجراء التفسيرات واستخلاص أفضل الإرشادات من المعاني الصريحة والضمنية فيها؟ هل نحتاج إلى إضافة تعقيد التواصل مع فيلسوف شهير (ولكن غير متعاطف)، فيلسوف روبوت/ شبح إلى واقعنا المفرط في التعقيد بما فيه الكفاية؟ أفترض أن العديد من العلماء (وغير العلماء) الفضوليين سيجيبون بـ نعم، نحن بحاجة إلى هذا، لا بل أميل إلى زيادة الاعتقاد بأن الإجابة الحقيقية ستكون “نحن نريد هذا”. ولذا دعُونا نأخذ مثلًا آخر: استعادة شخصية نيكولو ميكيافيلي الشهير، من الصعب التنبؤ بعواقب وجود روبوت/ شبح لميكيافيلي غيرِ متعاطف، (مع إمكانية أن يصبح مختلًا عقليًا)، يهاجم على سبيل المثال وسائل التواصل الاجتماعي، ما الذي يمكن أن يحدث؟

ناهيك عن احتمال استعادة شخصيات تاريخية شريرة بشكل استثنائي، تسبّبت في بؤس، ومعاناة وموت الملايين من الأبرياء، وقد نتفق جميعًا على وفرة هؤلاء المرشحين في زمن الحرب العالمية الثانية. ولكي نُعفي أنفسنا من التفكير بطبيعة المحادثات التي يمكن أن تجريها بعض الشخصيات الشريرة اليوم مع هؤلاء من الماضي، ألا ينبغي أن نحتاط ونتوخّى الحذر إزاء مسألة إحيائهم بالذكاء الاصطناعي؟ هل يمكننا تركُ الموتى يرقدون بسلام؟ وكذلك تركُ الأحياء يعيشون بسلام؟ لسوء الحظ يبدو أن الإجابة هي: لا، لا يمكننا ذلك، حيث توجد حاليًا شركات تعرض على العائلات إحياء أحبائهم المتوفّين بطرق متنوعة ولفترات زمنية مختلفة، ويذهب بعضها إلى حد القول بأن الناس سيستغنون عن توديع أحبتهم من خلال الحفاظ على التواصل المستمر معهم، مما يسمح باختفاء الحِداد والشعور بالحزن (19) هذه التكنولوجيا الجديدة تدعى تكنولوجيا الحِداد، هي نكهة جديدة من التكنولوجيا الرقمية للذكاء الاصطناعي التي قد نختار اليوم استهلاكها، وكما هي الحال مع أي عمل تجاري، مزدهر يدر أرباحًا، فمن المحتمل أن يتوسع ويستمر لزمن طويل.

إن إنقاذ البشرية بعبقرية أرسطو أمر مُغرٍ بالفعل، ولكن ماذا سيكون فهم وتفسير الحاضر من قبل مفكر مات منذ زمن طويل، سواء كان أرسطو أو أي شخص آخر؟

للأسف، لا أمل لي بالتخلي عن مشاريع استعادة شخصيات تاريخية بارزة من الماضي، ولا أعتقد أن هناك تقنية جديدة أُهمِلت لاعتبارات أخلاقية فقط، قبل إطلاقها للعالم، مع عدم اليقين بمدى فائدتها الفعلية، أو على الأقل الشك بالتوازن العام بين مخاطرها وفوائدها. لا يبدو أن العلماء كمجموعة (ربما ينبغي أن أقول “العلماء كنوع”) حذرون على الإطلاق. فإذا كان بإمكانهم القيام بذلك سيفعلونه ببساطة، مسوِّغين لأنفسهم الكثير من التعليلات الجيدة والموازنة العاقلة بين المخاطر والفوائد، حتى من دون الاعتراف بأنهم ببساطة عاجزون عن معرفة ذلك، إذ يبدو أن عدم اليقين لم يعُد جزءًا من عقلية الباحثين. لسوء الحظ، اختراع شيء جديد تمامًا يستحيل أن نتوقع ببساطة جميع العواقب السلبية التي قد يجرها هذا الاختراع، هل أخطأنا يومًا في توخي الحذر، وتخلينا عن تقنيات معينة قبل نشرها على نطاق واسع؟

أم أن حذرنا كان يظهر دومًا بعد إدراك وتجربة عدد كاف من العواقب السلبية الكارثية، بما فيها الأمراض والإعاقات الدائمة أو المميتة؟

علاوة على ذلك، فإن المعايير الإحصائية للتقدير الرياضي، كـ “مرتفع بما فيه الكفاية” لهذه المسائل، هو دائمًا رقم غير محدد وتعسفي يتأثر ذاتيًا بالشخص المعالج ومصالحه. ولم تمنع الاعتبارات البشرية يومًا نشر تقنية مُريبة أخلاقيًا، واكتفت في بعض الأحيان بتأجيل نشرها بذريعة الانتظار ريثما يصبح الرأي العام “مستنيرًا” كفايةً بفضل العلماء ذوي النوايا الحسنة الذين بدورهم لا يريدون أن يروا إلا الجانب الإيجابي لاختراعاتهم.

فما هو حجم الأضرار التي علينا أن نتعرض لها قبل التوقف عن استخدام بعض التقنيات؟ أعلَم أنه قد فات أوان التخلي عن معظم تطبيقات الذكاء الاصطناعي رغم الوضوح الجلي تمامًا لهذه الفكرة في بعض الأحيان: هل تذكرون نظام المناورة بالذكاء الاصطناعي لطائرة بوينغ 737 التي تحطمت وأودت بحياة مئات من الأشخاص؟ من يعلم، لعلَّ بعض أقارب أولئك الضحايا هم الآن زبائن لشركات ناشئة متخصصة في تكنولوجيا الحِداد؟ ألا ينبغي أن يكون هذا الاعتبار المظلم والمثير للسخرية بحد ذاته كافيًا للبقاء بعيدًا عمّا يقوم به الذكاء الاصطناعي من “إحياء”!

أما حان الوقت لقبول الموت كمرحلةٍ نهائية لدورة حياة الإنسان، وتركِ الموتى يرقدون بسلام؟

(*) د. آنّا نيُّوف: طبيبة أخصائية جراحة عامة، مُدرِّسة تشريح جراحي في جامعة كبيك في تروا ريفيير، في كندا. وهي أيضًا عضو سابق في لجنة التحكيم الأخلاقي للأبحاث العلمية على البشر.

الإحالات والمراجع:

1. South Korean mom has tearful VR ‘reunion’ with dead daughter. February 2020.    https://globalnews.ca/news/6550977/mom-dead-daughter-virtual-reality/

2. Artificial intelligence is bringing the dead back to ‘life’—but should it? August 2021.

https://news.ucr.edu/articles/2021/08/04/artificial-intelligence-bringing-dead-back-life-should-it

  3. Using generative AI to resurrect the dead will create a burden for the living. August 2023.

https://www.wired.com/story/using-generative-ai-to-resurrect-the-dead-will-create-a-burden-forthe-living

4. After my dad died, I tried to bring him back to life using AI. Here’s what it did    to my grief. By Diana Weisman. March 2024

https://www.huffpost.com/entry/dead-dad-resurrect-ai-chatgptbot_n_65d68a9be4b007e3eb74153a

 5. Ghostbots: AI versions of deceased loved ones could be a serious threat to    mental health. By Nigel Mulligan.  March 2024.

https://theconversation.com/ghostbots-ai-versions-of-deceased-loved-ones-could-be-a-seriousthreat-to-mental-health-224984

 6. Reviving the dead with AI: Is it  really       worth      it? By   Federico Guerrini. April 2023.

https://www.forbes.com/sites/federicoguerrini/2023/04/15/reviving-the-dead-with-ai-is-it-reallyworth-it/?sh=455cd16e382c

 7. Complicated grief.

https://www.mayoclinic.org/diseases-conditions/complicated-grief/symptoms-causes/syc20360374#:~:text=Complicated%20grief%20is%20like%20being,but%20your%20loved%20one%27s %20death

 8. https://en.wikipedia.org/wiki/Artificial_intelligence

 9.  https://www.merriam-webster.com/dictionary/artificial%20intelligence

10. https://en.wikipedia.org/wiki/Intelligence

 11. McGilchrist, I. (2019). The master and his emissary: The divided brain and the making of the Western world. Yale University Press.

https://public.ebookcentral.proquest.com/choice/publicfullrecord.aspx?p=5704620

 12. https://www.merriam-webster.com/dictionary/empathy  

 13. https://en.wikipedia.org/wiki/ELIZA

14. Baron-Cohen, S. (2011). The   science of evil: on empathy and the origins of cruelty. Basic Books.

http://public.ebookcentral.proquest.com/choice/publicfullrecord.aspx?p=688738

 15. Viding, E. (2019). Psychopathy: a very short introduction. Oxford University Press.

https://www.vlebooks.com/vleweb/product/openreader?id=none&isbn=9780192523181

16. Guo, C., Stretz, C., Anderson, J.R., El-Husseini, N., Mac Grory, B., Werner,  B., Yarnell, S. Psychiatric sequelae of stroke affecting the non-dominant cerebral hemisphere. J Neurol Sci. 2021 Nov 15; 430:120007.

doi: 10.1016/j.jns.2021.120007.    Epub       2021 Sep 27.    PMID:    34624794. https://pubmed.ncbi.nlm.nih.gov/34624794/

17. Yuvaraj, R., Murugappan, M., Norlinah, M.I., Sundaraj, K., Khairiyah, M. Review of emotion recognition in stroke patients. Dement Geriatr Cogn Disord. 2013;36(3-4):179-96. doi: 10.1159/000353440. Epub 2013 Jul 26. PMID: 23899462. https://pubmed.ncbi.nlm.nih.gov/23899462/

 18. Anderson, N.E., Kiehl,     K.A. Psychopathy: developmental perspectives   and  their implications for treatment. Restor Neurol Neurosci. 2014;32(1):103-17. doi: 10.3233/RNN-139001. PMID: 23542910; PMCID: PMC4321752.

https://tinyurl.com/479ahc3a

 19. Grief-tech. https://www.vox.com/culture/23965584/grief-tech-ghostbots-ai-startups-replika-ethics Henderson, A., Harbour, S., Cohen, K. Toward airworthiness certification for artificial intelligence (AI) in aerospace systems, 2022 IEEE/AIAA 41st Digital Avionics Systems Conference (DASC),  Portsmouth, VA, USA, 2022, pp.1-10, https://ieeexplore.ieee.org/document/9925740#:~:text=A%20major%20cause%20was%20found,w hich%20needed%20to%20be%20modified.

 رابط المقالة:

(*) أُعدّت هذه المقالة من قِبل أحد أعضاء اللجنة الاستشارية العلمية والطبية التابعة لمركز أبحاث السرطان في كاليفورنيا، والذي يرغب في عدم الكشف عن هويته في الوقت الحالي.

    المترجم: آنّا نيُّوف

ضفة ثالثة-

اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى