
تكلمنا في مقالنا السابق المنشور الأحد الماضي في هذه الصحيفة الغراء (الوطن) العُمانيَّة حول: المخاوف من الذكاء الاصطناعي بَيْنَ الاعتدال والمبالغة، حيثُ بَيَّنَا أنَّ الابتكارات والاختراعات الَّتي تتحول لصناعات ومنتجات تباع في الأسواق يستخدمها الإنسان في حياته اليوميَّة يرافقها مخاوف وقلق في بدايات استخدامها، فالإنسان دائمًا يحذر من الجديد، ويقلق من الخروج عن المألوف.
ومما لا شك فيه فإنَّ هذه الاختراعات والابتكارات تؤثر على أنماط حياتنا الاجتماعيَّة والأسريَّة بصوَر مختلفة، وقد ركزنا في مقالنا على آثار الابتكارات المعنيَّة بوسائل الإعلام كالمذياع والتلفاز والسينما والحواسيب الرقميَّة على القيم المُجتمعيَّة والأخلاقيات، بل إنَّها تؤثر على اللغة الَّتي يكتسبها الأطفال في صغرهم وتؤثر على إتقانهم للغة الأُم، كما بَيَّنَا أثرها على سوق العمل والمتمثل في ظهور وظائف واختفاء مجموعة أخرى من الوظائف، وحاجة الإنسان لتعلم مهارات جديدة، وغياب الحاجة لبعض المهارات القديمة.
واليوم في مقالنا هذا نعالج مخاوف الناس من آثار الذكاء الاصطناعي على الحياة الاجتماعيَّة وعلى قيم المُجتمع، وعلى سوق العمل، وعلى خصوصيَّة الإنسان، بل وحتَّى على حياته. فها نحن نقف أمام قائمة من المخاوف لدى البشر من آثار الذكاء الاصطناعي على الإنسان وأهمها: قلق البشريَّة على الوظائف في سوق العمل فنخن نتحدث عن الخوف من أن يحل الذكاء الاصطناعي محل البشر في عدد كبير من الوظائف، خصوصًا تلك الَّتي تعتمد على التكرار أو المهارات التقنيَّة البسيطة. فعلى سبيل المثال، تستخدم الشركات اليوم روبوتات ذكيَّة في المصانع، وبرامج محادثة تلقائيَّة لخدمة العملاء، مما يقلل من الحاجة للعمالة البشريَّة.
وسيعيد التاريخ نفسه، حيثُ سيطلب من الأفراد تطوير مهارات جديدة لديهم، تتناسب مع العصر الرقمي، بَيْنَما قد يواجه الآخرون خطر البطالة في حال لم يتم تأهيلهم بشكل مناسب. ونضع في قائمة المخاوف من آثار الذكاء الاصطناعي الخوف من تحيز الذكاء الاصطناعي، فهو يعتمد على البيانات لاتخاذ قرارات، فإذا كانت البيانات الَّتي يعتمد عليها تحتوي على تحيّزات (مثل التحيز العنصري أو الجنسي)، فإنَّ النتائج الَّتي يصدرها النظام قد تكون غير عادلة.
وقد تم توثيق حالات حقيقيَّة لأنظمة ذكاء اصطناعي أظهرت انحيازًا واضحًا في التوظيف، أو في أنظمة العدالة الجنائيَّة، أو في الخدمات المصرفيَّة. ومع تطور تقنيات التعرف على الهُويَّة الشخصيَّة للفرد كالتعرف على الوجه وتحليل البيانات الضخمة، ظهرت مخاوف حقيقيَّة من استخدام الذكاء الاصطناعي في المراقبة الجماعيَّة. فالحكومات والشركات باتت قادرة على تتبع الأفراد وجمع بيانات دقيقة عن سلوكهم، مما يهدد خصوصيَّة الأفراد ويطرح تساؤلات حول حدود الرقابة المقبولة. ومن أخطر المخاوف المطروحة هو أن تتطور أنظمة الذكاء الاصطناعي إلى حد تصبح فيه أكثر ذكاءً من البشر، وقد تتخذ قرارات لا يمكن التنبؤ بها أو السيطرة عليها. هذه الفكرة، الَّتي تناولها العديد من العلماء والمفكرين مثل (ستيفن هوكينج) و)إيلون ماسك(، تشير إلى خطر وجودي محتمل إذا ما تم تطوير ذكاء اصطناعي عام (AGI) ليتجاوز القدرات البشريَّة. هناك مخاوف متزايدة من استخدام الذكاء الاصطناعي في تطوير أسلحة ذاتيَّة التشغيل قد تتخذ قرارات بالقتل دون تدخل بشري.
هذا النوع من التكنولوجيا يثير تساؤلات أخلاقيَّة وقانونيَّة عميقة، خصوصًا في ظل غياب إطار دولي واضح لتنظيم استخدامه في الحروب. نعم… فالذكاء الاصطناعي أداة قويَّة يمكن أن تكون سببًا في تقدم الإنسانيَّة أو مصدرًا لتهديدات خطيرة إذا لم تُستخدم بحكمة. التعامل مع هذه المخاوف لا يتطلب الخوف أو الرفض، بل يستدعي تنظيمات وتشريعات واضحة، وشفافيَّة في تطوير التكنولوجيا، ومشاركة متعددة الأطراف الجهات الحكوميَّة، ومن الباحثين والمبتكرين، ومن المستخدمين للذكاء الاصطناعي من أفراد المُجتمع بشرائحه المختلفة لضمان أن يكون الذكاء الاصطناعي في خدمة الإنسان، وليس خطرًا عليه… ودُمْتُم أبناء قومي سالِمِين.




















اترك تعليقاً