الفرسان الأربعة للذكاء الاصطناعي التوليدي (وكيفية تجنب الكابوس)
نشرت: 2023-10-12كونك كبير مسؤولي أمن المعلومات يأتي مع الكثير من المسؤولية. على أساس يومي، أنا مسؤول عن حماية مستخدمينا، والمنتج الذي نصنعه، والشركة، والبيانات التي تعيش في قلب عملنا، كل ذلك أثناء بناء نظام عالمي المستوى يعمل على مدار الساعة للبحث عن التهديدات والقضاء عليهم قبل أن يتمكنوا من التسبب في أي ضرر. أحب أن أتمكن من القيام بهذا العمل. هناك مجموعة أساسية من التهديدات والمخاطر الكامنة التي نتحملها في هذا الدور، ولكن هذا ما يجعل الأمور مثيرة: التغلب على الجهات الفاعلة السيئة وإيجاد طرق أفضل لحماية مستخدمينا. انه مخيف؟ من الممكن أن يكون الأمر كذلك، ولكن لا ينبغي أن يكون كابوسًا على الإطلاق.
سألني أحد الأشخاص مؤخرًا ما الذي يبقيني مستيقظًا في الليل (المعروف أيضًا باسم ما هي كوابيسي)، وقد جعلني أفكر في التهديدات الحقيقية والمتصورة في عصرنا الرقمي الحالي. نتيجة للكثير من التخطيط الدقيق والعمل الجاد من قبل فريقي في Grammarly، فإن قائمة الأشياء التي تبقيني مستيقظًا قصيرة جدًا جدًا. لكن ما غير قواعد اللعبة، ونحن نعلم ذلك جميعًا، هو الذكاء الاصطناعي التوليدي.
الذكاء الاصطناعي التوليدي والخوف من المجهول
يبدو الذكاء الاصطناعي التوليدي وكأنه موجود في كل مكان لأنه في الواقع موجود في كل مكان. قبل أقل من عام واحد، وصلت GPT إلى مليون مستخدم في جزء صغير (1/15 على وجه الدقة) من الوقت كأقرب مقارنة لها، Instagram.
عظيم، لذلك فهو في كل مكان. ماذا الآن؟ يواجه قادة تكنولوجيا المعلومات في جميع أنحاء العالم الآن مجموعة جديدة تمامًا من الاحتمالات المخيفة حقًا والتي يتعين علينا الاستعداد للدفاع عنها. ناقل التهديد هذا مختلف.
ربما لا تعرف التفاصيل الجوهرية لكيفية امتثالنا لـ SOC2، لكنني على استعداد للمراهنة على أنك على دراية بمخاطر الذكاء الاصطناعي التوليدي والتهديدات التي يفرضها التدريب على بياناتك. يمين؟ يمين. لا يقتصر الذكاء الاصطناعي التوليدي على المنتجات التي نستخدمها فحسب، بل إنه موجود أيضًا في دورة الأخبار لدينا، وهو في مقدمة اهتمامات أي شخص مهتم عن بعد بعالم يستخدم التكنولوجيا. لكن لا ينبغي أن يكون الأمر مخيفًا، على الأقل ليس بالطريقة التي يُطلب منك أن تخاف بها.
ليس مخيفًا جدًا: التهديدات المبالغ فيها للذكاء الاصطناعي التوليدي
نحن نشهد مخاوف متزايدة بشأن التهديدات التي يشكلها الذكاء الاصطناعي التوليدي، وبعضها يتمتع بالمصداقية، ولكن أعتقد أن الكثير منها مبالغ فيه اليوم. إذا كنت سأطلق على التهديدات الحقيقية اسم الفرسان الأربعة، فدعونا نطلق على هؤلاء الثلاثة اسم المضحكين الثلاثة للذكاء الاصطناعي التوليدي: تسرب البيانات، والتعرض لبروتوكول الإنترنت، والتدريب غير المصرح به. قبل أن تختلفوا معي، اسمحوا لي أن أشرح لماذا أعتقد أن هذه النقاط الثلاث تصرف انتباهكم عن التحديات الحقيقية التي نواجهها اليوم:
- تسرب البيانات: دون السماح لطرف ثالث بالتدريب على بياناتك السرية، تظل هجمات تسرب البيانات نظرية ضد نماذج اللغات الكبيرة المعروفة (LLM) الموجودة، دون عرض واسع النطاق للهجمات العملية
- التعرض لعنوان IP: باستثناء أي تدريب، تظل مخاطر التعرض لعنوان IP مشابهة لتطبيقات SaaS التي تعمل بالذكاء الاصطناعي، مثل جداول البيانات عبر الإنترنت
- التدريب غير المصرح به: أصبح السماح للمستخدمين بإلغاء الاشتراك في بياناتهم المستخدمة لتدريب الذكاء الاصطناعي التوليدي معيارًا صناعيًا - مما يخفف من مخاوف التدريب على البيانات الحساسة التي كانت سائدة قبل أشهر فقط
الفرسان الأربعة للذكاء الاصطناعي التوليدي
ما الذي يجب عليك التركيز عليه للتأكد من أن مؤسستك مستعدة للتعامل مع الواقع الجديد الذي نعيش فيه؟ سأحذرك، هذا هو المكان الذي يصبح فيه الأمر مخيفًابالفعل.
كانت Grammarly هي الشركة الرائدة في مجال المساعدة في الكتابة باستخدام الذكاء الاصطناعي لأكثر من 14 عامًا، وكان عملي خلال السنوات القليلة الماضية هو مساعدة شركتنا في الحصول على الحماية من التهديدات الموثوقة. أسمي هذه التهديدات الكابوسية الفرسان الأربعة للذكاء الاصطناعي التوليدي: الثغرات الأمنية، ومخاطر الطرف الثالث، والخصوصية وحقوق النشر، وجودة المخرجات.
الثغرات الأمنية
مع انضمام الكثير من الأشخاص إلى عربة الذكاء الاصطناعي التوليدي والتوصل إلى نماذج مختلفة، نجد أنفسنا في مواجهة ثغرات أمنية جديدة - بدءًا من ما يمكن التنبؤ به إلى ما يسهل تفويته بشكل مخيف.
إن حاملي شهادات LLM عرضة لمجموعة ناشئة من الثغرات الأمنية (راجع OWASP LLM Top 10 للحصول على قائمة شاملة)، ونحن بحاجة إلى التأكد من بقاء كل محيط محصنًا. يجب على مزود LLM الموثوق به أن يشرح ما هي جهود الضمان التي يقدمها الطرف الأول والثالث، مثل الفريق الأحمر للذكاء الاصطناعي وعمليات تدقيق الطرف الثالث، التي بذلتها في عروضه للتخفيف من الثغرات الأمنية في LLM. قم بالعناية الواجبة. المحيط الآمن لا يعني شيئًا إذا تركت الأقفال مفتوحة.
الخصوصية وحقوق التأليف والنشر
مع تطور البيئة القانونية والخصوصية حول الذكاء الاصطناعي التوليدي، ما مدى أمانك من الإجراءات التنظيمية ضد مزود الخدمة الخاص بك أو ضد نفسك؟ لقد شهدنا بعض ردود الفعل القوية جدًا في الاتحاد الأوروبي، والتي تعتمد فقط على مصدر مجموعات بيانات التدريب. لا تجد نفسك تستيقظ على كابوس بالنسبة لك ولفريقك القانوني.
تعتمد أدوات الذكاء الاصطناعي التوليدية على أنماط في البيانات، ولكن ماذا يحدث عندما يتم رفع هذا النمط ونقله إليك من عمل شخص آخر؟ هل أنت محمي كمستخدم إذا اتهمك شخص ما بالسرقة الفكرية؟ وبدون وجود حواجز الحماية المناسبة، يمكن أن يتحول هذا من صداع غير مريح إلى واقع مرعب. قم بحماية نفسك وعملائك منذ البداية من خلال النظر في التزامات حقوق النشر الخاصة بمزود الخدمة.
LLM مخاطر مقدمي خدمات الطرف الثالث
العديد من برامج LLM التابعة لجهات خارجية جديدة وسيكون لها حق الوصول إلى البيانات السرية. ورغم أن الجميع يتكاملون مع هذه التكنولوجيات، إلا أنها ليست جميعها ناضجة. يمكن للاعبين الكبار، مثل موفري الخدمات السحابية الذين يشكلون بالفعل جزءًا من ملف تعريف المخاطر الخاص بنا، مساعدتنا في تخفيف المخاطر بطريقة لا تستطيع (أو ترغب) شركات SaaS الصغيرة القيام بها. إذا كان بإمكاني أن أقدم لك نصيحة واحدة، أود أن أقول لك أن تكون حذرًا بشأن الأشخاص الذين تدعوهم إلى الحفلة. تبدأ مسؤوليتك تجاه عميلك قبل وقت طويل من استخدام منتجك.
جودة الإخراج
تتميز أدوات الذكاء الاصطناعي التوليدية بالاستجابة العالية والثقة والطلاقة، ولكنها قد تكون أيضًا مخطئة وتضلل مستخدميها (مثل الهلوسة). تأكد من أنك تفهم كيف يضمن مزود الخدمة الخاص بك دقة المحتوى الذي تم إنشاؤه.
ما هو أسوأ؟ يمكن لأدوات الذكاء الاصطناعي التوليدية إنشاء محتوى قد لا يكون مناسبًا لجمهورك، مثل الكلمات أو التعبيرات الضارة بمجموعات معينة. في Grammarly، هذه هي أسوأ نتيجة يمكن أن يحققها منتجنا، ونحن نعمل جاهدين للبحث عنها والحماية منها.
تأكد من أنك تعرف حواجز الحماية والإمكانيات التي يمتلكها مزود الخدمة الخاص بك للإبلاغ عن المحتوى الحساس. اطلب من مزود الخدمة لديك واجهة برمجة تطبيقات للإشراف على المحتوى تمكنك من تصفية المحتوى غير المناسب لجمهورك. تعتمد ثقة جمهورك على ذلك.
لا تهرب منه: تحرك بثقة نحو الذكاء الاصطناعي التوليدي
قم ببناء أفضل فرقة أمنية داخلية ممكنة
استثمر في فريق أمان الذكاء الاصطناعي الداخلي الرائع، على غرار فرق الأمان السحابية التي أنشأناها جميعًا في السنوات العشر الماضية أثناء تبنينا للحوسبة السحابية. ستساعدك الخبرة الداخلية على تحديد كيفية ارتباط كل من هذه التهديدات الحقيقية بعملك/منتجك/مستهلكك، والأدوات التي ستحتاجها لحماية نفسك بشكل صحيح.
تدريب فريقك من الخبراء. ومن ثم تدريبهم على الفريق الأحمر. اطلب منهم تشغيل الهجمات المستندة إلى نماذج الذكاء الاصطناعي (على سبيل المثال، كسر الحماية، والاختراق بين المستأجرين، والإفصاح عن البيانات الحساسة، وما إلى ذلك) والتدريبات المكتبية للسيناريوهات عالية التأثير، حتى تعرف كيفية التعامل مع التهديدات الكامنة.
تمكين (وتسليح) موظفيك
أثناء قيامك بإدخال الذكاء الاصطناعي المنتج إلى المؤسسة، اعتبر موظفيك خط الدفاع الثاني ضد التهديدات الأمنية الموضحة. قم بتمكينهم من المساعدة في حماية شركتك من خلال توفير التدريب الشامل على السلامة باستخدام الذكاء الاصطناعي وتوجيهات واضحة بشأن سياسة الاستخدام المقبول.
تظهر الأبحاث أن 68% من الموظفين يعترفون بإخفاء استخدام الذكاء الاصطناعي عن أصحاب العمل. إن التظاهر بخلاف ذلك لن يجعل الفرسان الأربعة من الذكاء الاصطناعي التوليدي يختفون. بدلاً من ذلك، أنصحك ببناء طريق مرصوف يسمح للفرسان بتجاوز شركتك.
لمعرفة كيفية بناء هذا الطريق في Grammarly، يرجى الاطلاع على جلستي في Gartner IT Symposium/XPo لهذا العام.سأغطي في حديثي إطارًا تفصيليًا لاعتماد الذكاء الاصطناعي التوليدي الآمن.سيتم إصدار ورقتنا البيضاء حول هذا الموضوع في 19 أكتوبر.
لمعرفة المزيد حول التزام Grammarly بالذكاء الاصطناعي المسؤول، تفضل بزيارةمركز الثقةالخاص بنا .