English
s

قدرة الآلات على التعلم يصعّب تمييز الحواسيب عن البشر

Machine-Learning

هل نقول وداعاً لحروف التحقق كابتشا؟

 

كثيراً ما تجد شيئاً مثيراً للاهتمام على الإنترنت كفيديو أو مقال فترغب في الاطلاع عليه لكن الموقع يطلب منك قبل أن تستطيع مشاهدته إثبات أنك بشر، ويرشدك لإكمال مهمة بسيطة، ككتابة كلمة مخفية تحت مجموعة من الخطوط المتعرجة، أو تحديد الصورة التي تتطابق مع وصف معين. وعلى الرغم من أن هذه المهام قد تكون مزعجة، إلا أن الاختبار عنصر ضروري للأمن الإلكتروني في العصر الحديث؛ على الأقل لتمييز المستخدمين البشريين عن البوتات (روبوتات الإنترنت). لكن التقدم في التعلم الآلي قد يعني أن ذلك سيتغير قريباً.

 

يسمى هذا اختبار تورنج العام للتمييز بين الحاسوب والإنسان، ويعرف غالباً باسم "كابتشا" (CAPTCHA). ووجدت أبحاث جديدة من شركة الذكاء الاصطناعي "فيكاريوس" (Vicarious) أنه على الرغم من أن الكابتشا أصبحت من أساسيات الأمن الإلكتروني، فإن البوتات ستتمكن من التغلب عليها بمرور الوقت. ووضعت فيكاريوس خوارزمية تعلم آلي تستطيع محاكاة الدماغ البشري، واستخدام نموذج رؤية حاسوبي يطلق عليه الشبكة القشرية التكرارية لمحاكاة ما نسميه "البديهة أو الفطرة السليمة".

 

ووفقاً لمدونة نشرتها فيكاريوس، فإنه "لتكون الفطرة السليمة فعالة، يجب أن يكون بمقدورها الإجابة عن مجموعة متنوعة من الافتراضات، وهذه مَلَكَة نسميها الخيال". ونشرت تفاصيل نموذج الذكاء الاصطناعي هذا في مجلة "ساينس" (Science). وتستمد تقنية فيكاريوس من المنطق البشري لتحليل النصوص، كالتعرف على الحرف "أ" وذلك بإنشاء نسختها الخاصة من الشبكة العصبية.

artificial intelligence captcha cybersecurity recursive cortical network

إزالة الحدود

 

استطاعت خوارزمية فيكاريوس فهم الكابتشا بصورة أسرع من خوارزميات التعلم العميق الأخرى، وبدقة بلغت 57%، على الرغم من أن هدف هذا البحث لم يكن فك الكابتشا. وهذا يطرح السؤال الآتي: هل يعني هذا أن أنظمة الحاسوب أكثر عرضة لتهديدات الأمن الإلكتروني؟ وإذا استطاعت الآلات فك الكابتشا كالبشر، ستصبح تدابير الأمن الإلكتروني بلا فائدة.

 

وعلى الرغم من أن الكابتشا شائعة جداً، فهي ليست وسيلة الأمن الوحيدة التي توظفها أنظمة الحواسيب. فالذكاء الاصطناعي يصعّب -لدرجة الاستحالة أحياناً- عمل تدابير الأمن الإلكتروني اليوم للتمييز بين الإنسان والآلة. ولن يكون مستغرباً استخدام القراصنة المخترقين الذكاء الاصطناعي. وتعمل الذراع البحثية لوزارة الدفاع الأمريكية "داربا" (DARPA)، على تطوير قرصان ذكاء اصطناعي. ومن جهة أخرى، قد يُستخدم الذكاء الاصطناعي لمكافحة المخترقين الذين يستخدمون الذكاء الاصطناعي. فمثلاً، درّب علماء المختبر الأوروبي لفيزياء الجسيمات (CERN) نظام تعلم آلي على حماية بياناتهم من التهديدات الإلكترونية. ويتمثل أحد التحديات الرئيسية في تدريس هذه الخوارزميات الذكية لتحديد أنشطة الشبكة الضارة. ولعل الخطوة القادمة قد تكون التعرف على الآلات التي تتظاهر بأنها بشر.

 

وأصبحت الحواسيب أكثر فعالية في محاكاة عمل الدماغ البشري، على الرغم من أن الذكاء الاصطناعي ما زال بعيداً عن أن يصبح بمستوى ذكاء البشر. لكن ذكاءً اصطناعياً كالخوارزمية الجديدة قد يزيل هذه الحدود. وتستطيع الآلات خداع آلات أخرى في الاعتقاد بأنها بشر -لحدود معينة. وقال الرئيس التنفيذي ديليب جورج للإذاعة الوطنية العامة الأمريكية (NPR) إن تطوير قدرات تشبه قدرات الإنسان بواسطة الذكاء الاصطناعي هو الطريق الذي تتحرك التقنية باتجاهه.


إيلون ماسك: سيكون التفاعل مع الذكاء الاصطناعي بمثابة زيارة من قبل مخلوقات فضائية فائقة الذكاء

سيشكل الذكاء الاصطناعي عوناً للبشرية وخطراً يتهددها على حد سواء، وفقاً لإيلون ماسك، رائد الأعمال في مجال التكنولوجيا والفضاء، الذي يقول بأن إجراء نقاش مع آلة تتمتع بذكاء اصطناعي في المستقبل سيكون بمثابة "زيارة من قبل مخلوقات فضائية فائقة الذكاء".

هل ستتقبل الحكومات الـ "بيتكوين" يوماً ما؟

أثير الكثير من الصخب والتخمينات بشأن قيمة الـ"بيتكوين". ويخضع الموضوع في نهاية المطاف لرأيكم الشخصي، فقد تكون العملات الافتراضية الشيء المهم القادم، أو ببساطة النقطة الأحدث في خط طويل من الفقاعات التكنولوجية التي ما تلبث أن تنفجر. ​ ويبرز سؤالٌ مهم

ما مدى أمان عملة "بيتكوين"؟

شهدت العملة الإلكترونية المشفرة "بيتكوين" ارتفاعاً مذهلاً منذ ظهورها للمرة الأولى عام 2009. كانت حينها تبلغ قيمتها 0.5 سنتاً. وبلغت أعلى مستوياتها في ديسمبر 2017 مسجلة 18 ألف دولار أمريكي لكل عملة، لكنها شديدة التقلب حيث تراجعت مثلا بمقدار أكثر من 4