top of page

Search Results

تم العثور على 2 نتيجة مع بحث فارغ

  • كيف يمكن للمؤسسات إدارة مخاطر الذكاء الاصطناعي (AI)

    تحتاج جميع المؤسسات التي تطور وتنشر الذكاء الاصطناعي (AI) إلى إدارة المخاطر المرتبطة به . وهذا يشمل الكيانات العامة والخاصة وغير الحكومية. في حين أن هناك العديد من أطر عمل إدارة المخاطر والعمليات والأدوات المتاحة بالفعل - يمكن القول إن المخاطر التي تشكلها أنظمة الذكاء الاصطناعي فريدة من نوعها. وذلك لأن المخاطر المرتبطة بالذكاء الاصطناعي يمكن أن تتغير بمرور الوقت ، وغالبًا ما تكون معقدة ، وذات طبيعة اجتماعية وتقنية ، ويمكن أن تسبب نتائج غير عادلة أو غير مرغوب فيها للأفراد والمجتمع. طورت حكومة الولايات المتحدة NIST (المعهد الوطني للمعايير والتكنولوجيا) إطار عمل للمساعدة في إدارة المخاطر المرتبطة بالذكاء الاصطناعي (AI) . وهذا ما يسمى إطار عمل NIST AI لإدارة المخاطر (AI RMF) . تم إنشاء هذا نتيجة لقانون مبادرة الذكاء الاصطناعي الوطنية الأمريكية لعام 2020. يوفر NIST AI RMF مرجعًا تأسيسيًا مفيدًا مرجعًا لأي مؤسسة (بما في ذلك تلك الموجودة خارج الولايات المتحدة) إدارة المخاطر المرتبطة بالذكاء الاصطناعي. إن إطار AI RMF تطوعي وكان يهدف إلى تحسين القدرة على دمج الجدارة بالثقة في تصميم منتجات وخدمات الذكاء الاصطناعي وتطويرها واستخدامها وتقييمها ، والأنظمة . تم تطوير AI RMF من خلال عملية تعاونية بين NIST والصناعة والمؤسسات الأخرى والجمهور. ينقسم نموذج AI RMF إلى جزأين حيث يركز الجزء 1 على كيفية قيام المؤسسات بتأطير المخاطر المتعلقة بالذكاء الاصطناعي. ثم يسلط الضوء على كيفية تحليل مخاطر الذكاء الاصطناعي والجدارة بالثقة ، وخصائص أنظمة الذكاء الاصطناعي الجديرة بالثقة مثل موثوقية الصلاحية ، والسلامة ، والأمن ، والمرونة ، والمساءلة ، والشفافية ، و "القابلية للتفسير" ، وضوابط الخصوصية ، والإنصاف ، وإدارة التحيزات. طورت NIST موارد تكميلية بما في ذلك NIST AI RMF Playbook ، AI فيديو شرح RMF ، خريطة طريق AI RMF و AI RMF Crosswalk . في مارس 2023 ، أطلقت NIST أيضًا مركز موارد AI جدير بالثقة ومسؤول ، والذي يهدف إلى دعم المنظمات المتوافقة مع AI RMF. قد تجد المؤسسات التي تطور و / أو تنشر الذكاء الاصطناعي أن NIST AI RMF ومواردها الإضافية مفيدة في إدارتها المستمرة لمخاطر الذكاء الاصطناعي. شاهد روابط مفيدة: NIST AI RMF - https: // nvlpubs .nist.gov / nistpubs / ai / NIST.AI.100-1.pdf NIST Playbook - https://airc.nist.gov / AI_RMF_Knowledge_Base / Playbook فيديو شرح NIST - هدف https://www.nist.gov/video/introduction-nist-ai-risk-management-framework-ai-rmf-10-explainer-video خارطة طريق NIST - https://www.nist.gov/itl/ai-risk-management-framework/roadmap-nist-artustry-intelligence-risk-management-framework-ai < / ص> عمل NIST AI Crosswalk - https://www.nist.gov/itl/ai-risk-management-framework/crosswalks-nist-artustry-intelligence-risk-management-framework مركز NIST AI - https://airc.nist.gov/Home #airisks #AIriskmanagement #AINISTRMF #AIstrategyforcompanies #GJCAIstrategy

  • كيف يجب أن تفكر الحكومات في حوكمة الذكاء الاصطناعي؟

    حوكمة الذكاء الاصطناعي - العناصر التأسيسية التي يتعين على الحكومات مراعاتها هناك عدد من الأشياء يتعين على الحكومات أخذها في الاعتبار كجزء من جهودها لبناء قدرات الذكاء الاصطناعي على المستوى الوطني . تظهر فرص لا حصر لها باستمرار من اتجاهات وتقنيات وتطبيقات الذكاء الاصطناعي الجديدة. على الرغم من جاذبية هذه الفرص ، فمن الأهمية بمكان أن تتولى الحكومات العمل التأسيسي المرتبط بالذكاء الاصطناعي لإدارة مخاطر النتائج غير المقصودة و / أو غير المرغوب فيها. تحتاج الحكومات التي تسعى إلى بناء قدرات الذكاء الاصطناعي (AI) الخاصة بها إلى تطوير العناصر التأسيسية التالية: الاستراتيجية والسياسة: يجب على الحكومات إعطاء الأولوية لتطوير استراتيجيات وسياسات شاملة تحدد رؤيتها وأهدافها والمبادئ التوجيهية لحوكمة الذكاء الاصطناعي. وهذا يتطلب البحث والمشاركة مع أصحاب المصلحة المعنيين (بما في ذلك الصناعة والأوساط الأكاديمية ومنظمات المجتمع المدني والجمهور) ، والنظر في أفضل الممارسات الدولية. يجب أن تشمل مرحلة الاستراتيجية والسياسة فهمًا واسعًا للفوائد والمخاطر المحتملة والآثار المجتمعية لتقنيات الذكاء الاصطناعي. إطار الحوكمة. تحتاج الحكومات إلى إنشاء إطار عمل للحوكمة لتوفير الإشراف على مراحل تنفيذ استراتيجيات وسياسات الذكاء الاصطناعي. يحتاج هذا الإطار إلى تحديد أدوار ومسؤوليات الكيانات العامة المختلفة المشاركة في حوكمة الذكاء الاصطناعي ، وضمان التنسيق والمساءلة واتخاذ القرارات الفعالة. مدونات قواعد السلوك : يجب على الحكومات أن تضع بشكل استباقي قواعد سلوك تتعلق بتطوير الذكاء الاصطناعي ونشره واستخدامه. يجب أن تحدد هذه القواعد المبادئ الأخلاقية والإرشادات والمسؤوليات التي يلتزم بها جميع أصحاب المصلحة - الوكالات الحكومية والقطاع الخاص والمؤسسات البحثية. المبادئ الأخلاقية: تحتاج الحكومات إلى تنفيذ أطر عمل وأدوات تشغيلية تعزز بنشاط المبادئ الأخلاقية داخل أنظمة الذكاء الاصطناعي. يجب أن تهدف هذه التدابير إلى مكافحة التحيز وترسيخ العدالة والشفافية والمساءلة. يجب وضع آليات قوية لتحديد ومعالجة التحيزات في الخوارزميات ومجموعات البيانات وتطبيقات الذكاء الاصطناعي ، لمنع الآثار السلبية على أفراد أو مجموعات معينة. معايير التطوير: لضمان التنفيذ المسؤول للذكاء الاصطناعي ، يجب على الحكومات تطوير معايير ومقاييس للتقييم. ستسمح هذه المعايير بتقييم أداء نظام الذكاء الاصطناعي وفعاليته وتأثيره. يجب إجراء تقييمات منتظمة لقياس الامتثال للمعايير الأخلاقية ، وتحديد مجالات التحسين ، والتأكد من تحقيق النتائج المرجوة. المعايير الفنية: يجب أن تعمل الحكومات مع الخبراء التقنيين وأصحاب المصلحة في الصناعة لإنشاء وتعزيز المعايير الفنية للذكاء الاصطناعي. يجب أن تتناول هذه المعايير تحديات مثل خصوصية البيانات والأمان وقابلية التشغيل البيني وموثوقية النظام. سيسهل النهج المشترك للمعايير التقنية النشر المسؤول والقابل للتشغيل المتبادل للذكاء الاصطناعي عبر القطاعات ودعم الاتساق مع ممارسات الحوكمة. مشاريع تجريبية. يجب على الحكومات دعم المشاريع التجريبية واستخدام البيئات الآمنة مثل "صناديق الحماية" لتشجيع تجارب الذكاء الاصطناعي والابتكار. توفر هذه المبادرات بيئات محكومة لاختبار أنظمة الذكاء الاصطناعي في سيناريوهات العالم الحقيقي مع الالتزام بالأطر التنظيمية. من خلال تعزيز التجارب الآمنة ، يمكن للحكومات تسهيل التعلم وتحديد المخاطر المحتملة وتطوير آليات حوكمة فعالة. بناء قوى عاملة متنوعة للذكاء الاصطناعي: تحتاج الحكومات إلى التركيز على تكوين قوة عاملة لديها مزيج من الخبرة الفنية بالإضافة إلى الجوانب الأخلاقية والقانونية والاجتماعية. هذا النهج متعدد التخصصات ضروري لإدارة تعقيد حوكمة الذكاء الاصطناعي. يجب أن تستثمر الحكومات في برامج التعليم والتدريب الخاصة بالذكاء الاصطناعي لتزويد المهنيين بالمهارات التقنية وغير الفنية اللازمة لتطوير تقنيات الذكاء الاصطناعي وتنظيمها وإدارتها. ملخص من خلال تطوير هذه العناصر التأسيسية ، يمكن للحكومات دعم ابتكارات الذكاء الاصطناعي والاستثمار فيها بثقة أكبر مع موازنة المخاطر الكامنة . هناك عدد من الموارد المفيدة المتاحة لدعم الحكومات في تطوير هذه الأسس. يوصى بالمشاركة الفعالة في المنتديات الدولية وتطوير المعايير كطريقة عملية لتسريع هذه الخطوات. # الإدارة_المهنية # أخلاقيات العمل # العمل من أجل الحكومة

George James Consulting logo

Strategy – Innovation – Advice – ©2023 George James Consulting

bottom of page