كتاب الموقع

كتبت د . نازك بدير | CHATGPT منصّة… أم مصيدة؟

الدكتورة نازك بدير | كاتبة وباحثة لبنانية

أمام التطوّر التكنولوجي المهول وغير الآمن وجد خبراء الذكاء الاصطناعي والمدراء التنفيذيّون أنفسهم أمام سيناريو مؤلم: أنتج العقل البشري عقولًا غير بشريّة، يبدو أنّه غير قادر على التحكّم بها وستتّخذ القرارات عنه، وستحلّ مكانه.

جاء في الرسالة الصادرة عن معهد فيوتشر أوف لايف والتي وقّعها أكثر من 1000 شخص، وجوب “تطوير أنظمة الذكاء الاصطناعي القويّة فقط عندما نكون واثقين من أنّ آثارها ستكون إيجابيّة، وأنّ مخاطرها ستكون تحت السيطرة”. كما أشاروا إلى المخاطر المحتملة على المجتمع والإنسانيّة، وذلك بحسب تقرير لوكالة رويترز.وفي رسالة مفتوحة موجّهة من إيلون ماسك ومئات خبراء الذكاء الاصطناعي طالبوا فيها التوقّف لمدّة ستة أشهر عن تطوير “أنظمة التدريب لنموذج “جي بي تي-4 (GPT-4) الذي أطلقته شركة “أوبن إيه آي” (OpenAI)خوفًا من تطوير عقول غير بشريّة قد تفوق الإنسان عددًا وذكاء في النهاية وتتفوّق عليه وتحلّ محله”.

وحول تطوّر الذكاء الاصطناعي قال إيلون ماسك: “التعمّق أكثر في الذكاء الاصطناعي، قد يولّد موجات، ربّما تغيّر من تاريخ الحياة على كوكب الأرض، في حال لم يكن هناك بروتوكولات رادعة، وقدرة على التحكّم في تطوّره وتصرفاته”.

 

قال رئيس شركة “أوبن إيه آي” سام إلتمان، في حديث إلى شبكة “إيه بي سي نيوز إنّ “المجتمع بحاجة إلى وقت ليتكيّف” مع هذه البرامج. وأضاف أنّ” الأشهر القليلة الفائتة شهدت سباقًا غير منضبط لمختبرات الذكاء الاصطناعي بهدف تطوير أدمغة رقميّة ذات قوّة كبيرة، يعجز أحد حتى مبتكريها عن فهمها أو التحكّم بها بصورة مؤكّدة”.  وحذّر خبراء معهد بلانتر إنستيتوت(إتش بي آي) المتخصّص في تكنولوجيا المعلومات من خطر تقديم معلومات حسّاسة في خلال استخدام منصّة المحادثة باستخدام الذكاء الاصطناعي شات GPT بسبب ضعف عوامل حماية البيانات والمحافظة على السريّة في هذه المنصّة. والجدير ذكره، أنّ المستخدم عندما يتداول معلومة سريّة على أية منصة من منصات الذكاء الاصطناعي، فهو يعرّض نفسه لخسارة سريّة بياناته. لذا ينبّه خبراء أمن البيانات من تداول البيانات السريّة عبر هذه المنصّة أو غيرها، وكذلك الأسرار الشخصيّة ومعلومات الشركات. وذكر خبراء معهد تكنولوجيا المعلومات الألماني أنّ على الموظفين توخّي الحذر قبل السماح لأية منصة ذكاء اصطناعي الوصول إلى بيانات شركاتهم. وقالوا إنّ أيّ شخص يقوم بتحميل البيانات الداخليّة لموظفي شركة بغية استخدامها في إعداد عرض تقديمي أو يستخدم منصة شات GPT لترتيب الأرقام الماليّة للشركة وتحليلها، فهو يعرّض البيانات إلى خطر التسريب.

العقول الاصطناعيّة سبقت صانعها، والمستقبل القريب سيفجّر مفاجآت لم تكن في الحسبان.

مقالات ذات صلة

زر الذهاب إلى الأعلى