Clay team photo
يؤكد كلاي أنها أغلقت جولة بقيمة 100 مليون دولار عند تقييم 3.1 مليار دولار
الثلاثاء - 5 أغسطس - 2025
Empty school desk on a blue background. .
تتوفر الآن NotebookLM من Google للمستخدمين الأصغر سناً حيث تكثف المنافسة في مساحة التعليم منظمة العفو الدولية
الأربعاء - 6 أغسطس - 2025

متابعة – أمل علوي

كان قانون الذكاء الاصطناعي للاتحاد الأوروبي ، المعروف باسم قانون الاتحاد الأوروبي الذكاء الاصطناعي ، موصوفة من قبل المفوضية الأوروبية باعتبارها “أول قانون شامل في العالم”. بعد سنوات من صنعها ، أصبح تدريجياً جزءًا من الواقع ل 450 مليون شخص يعيشون في الدول الـ 27 التي تضم الاتحاد الأوروبي.

ومع ذلك ، فإن قانون الاتحاد الأوروبي لمنظمة العفو الدولية هو أكثر من مجرد علاقة أوروبية. ينطبق على الشركات المحلية والأجنبية على حد سواء ، ويمكن أن تؤثر على كل من مقدمي الخدمات ونشر أنظمة الذكاء الاصطناعى ؛ تستشهد المفوضية الأوروبية بأمثلة على كيفية تطبيقها على مطور أداة فحص CV وإلى البنك الذي يشتري هذه الأداة. الآن كل هذه الأطراف لديها إطار قانوني يمهد الطريق لاستخدامها من الذكاء الاصطناعي.

لماذا يوجد قانون الاتحاد الأوروبي منظمة العفو الدولية؟

كالعادة مع تشريعات الاتحاد الأوروبي ، يوجد قانون الاتحاد الأوروبي منظمة العفو الدولية للتأكد من وجود إطار قانوني موحد ينطبق على موضوع معين عبر بلدان الاتحاد الأوروبي – الموضوع هذه المرة هو منظمة العفو الدولية. الآن وبعد أن أصبحت اللائحة في مكانها ، ينبغي أن “ضمان حرية الحركة ، عبر الحدود ، للسلع والخدمات القائمة على الذكاء الاصطناعي” دون تباعد قيود محلية.

من خلال التنظيم في الوقت المناسب ، يسعى الاتحاد الأوروبي إلى إنشاء ملعب مستوي في جميع أنحاء المنطقة و Foster Trust ، مما قد يخلق أيضًا فرصًا للشركات الناشئة. ومع ذلك ، فإن الإطار الشائع الذي اعتمدته ليس متساهلاً تمامًا: على الرغم من المرحلة المبكرة نسبيًا من اعتماد الذكاء الاصطناعي على نطاق واسع في معظم القطاعات ، فإن قانون الاتحاد الأوروبي لمنظمة العفو الدولية يضع شريطًا كبيرًا لما ينبغي أن يفعله الذكاء الاصطناعي ويجب ألا يفعله للمجتمع على نطاق أوسع.

ما هو الغرض من قانون الاتحاد الأوروبي لمنظمة العفو الدولية؟

وفقًا للمشرعين الأوروبيين ، فإن الهدف الرئيسي للإطار هو “تعزيز امتصاص الذكاء الاصطناعي المركزي والموثوق بالثقة مع ضمان مستوى عالٍ من حماية الصحة والسلامة والحقوق الأساسية على النحو المنصوص عليه في ميثاق الحقوق الأساسية للاتحاد الأوروبي ، بما في ذلك الديمقراطية ، وحالة القانون وحماية البيئة ، وحماية الآثار الضارة للنظم AI في الاتحاد ، ودعم الابتكار.

نعم ، هذا فم للغاية ، لكنه يستحق التحليل بعناية. أولاً ، لأن الكثير سيعتمد على كيفية تعريف “Centric” و “الجدير بالثقة” من الذكاء الاصطناعي. وثانياً ، لأنه يعطي شعورًا جيدًا بالتوازن المحفوف بالمخاطر للحفاظ على الأهداف المتباينة: الابتكار مقابل الوقاية من الضرر ، بالإضافة إلى امتصاص AI مقابل حماية البيئة. كالعادة مع تشريع الاتحاد الأوروبي ، مرة أخرى ، سيكون الشيطان في التفاصيل.

كيف يتصرف الاتحاد الأوروبي منظمة العفو الدولية بموازنة أهدافه المختلفة؟

لتحقيق التوازن بين الوقاية من الأضرار ضد الفوائد المحتملة لمنظمة العفو الدولية ، اعتمد قانون الاتحاد الأوروبي منظمة العفو الدولية نهجًا قائمًا على المخاطر: حظر حفنة من حالات استخدام المخاطر “غير المقبولة” ؛ يستخدم وضع مجموعة من “عالية الخطورة” الدعوة إلى تنظيم ضيق ؛ وتطبيق الالتزامات الأخف على سيناريوهات “المخاطر المحدودة”.

حدث TechCrunch

سان فرانسيسكو
|
27-29 أكتوبر ، 2025

هل دخل قانون الاتحاد الأوروبي منظمة العفو الدولية حيز التنفيذ؟

نعم ولا. بدأ تشغيل قانون الاتحاد الأوروبي AI في 1 أغسطس 2024 ، لكنه لن يدخل حيز التنفيذ إلا من خلال سلسلة من المواعيد النهائية للامتثال المذهلة. في معظم الحالات ، سيتم تطبيقه أيضًا على الوافدين الجدد من الشركات التي تقدم بالفعل منتجات وخدمات الذكاء الاصطناعي في الاتحاد الأوروبي.

دخل الموعد النهائي في الموعد النهائي في 2 فبراير 2025 ، وركز على إنفاذ الحظر على عدد صغير من الاستخدامات المحظورة لمنظمة العفو الدولية ، مثل التجسس غير المستهدف للإنترنت أو CCTV لصور الوجه لتربية أو توسيع قواعد البيانات. سوف يتبع العديد من الآخرين ، ولكن ما لم يتغير الجدول الزمني ، سيتم تطبيق معظم الأحكام بحلول منتصف عام 2016.

ما الذي تغير في 2 أغسطس 2025؟

منذ 2 أغسطس ، 2025 ، ينطبق قانون الاتحاد الأوروبي AI على “نماذج الذكاء الاصطناعي للأغراض العامة ذات المخاطر الجهازية”.

نماذج GPAI (AI للأغراض العامة) هي نماذج منظمة العفو الدولية المدربين مع كمية كبيرة من البيانات ، ويمكن استخدامها لمجموعة واسعة من المهام. هذا هو المكان الذي يأتي فيه عنصر المخاطر. وفقًا لقانون الاتحاد الأوروبي ، يمكن أن تأتي نماذج GPAI مخاطر النظامية – “على سبيل المثال ، من خلال خفض حواجز تطور الأسلحة الكيميائية أو البيولوجية ، أو القضايا غير المقصودة للتحكم في نماذج الحكم الذاتي (GPAI).”

قبل الموعد النهائي ، نشر الاتحاد الأوروبي المبادئ التوجيهية بالنسبة لمقدمي الخدمات من نماذج GPAI ، والتي تشمل كل من الشركات الأوروبية واللاعبين غير الأوروبيين مثل الأنثروبور ، Google ، Meta ، Openai. ولكن نظرًا لأن هذه الشركات لديها بالفعل نماذج في السوق ، فإنها ستحصل عليها أيضًا حتى 2 أغسطس 2027 ، على عكس الوافدين الجدد.

هل قانون الاتحاد الأوروبي الذكاء الاصطناعي له أسنان؟

يأتي قانون الاتحاد الأوروبي من الذكاء الاصطناعي مع عقوبات أراد المشرعون أن يكونوا في وقت واحد “فعال ومتناسب وحيوي” – حتى بالنسبة للاعبين العالميين الكبار.

سيتم وضع التفاصيل من قبل بلدان الاتحاد الأوروبي ، لكن اللائحة تحدد الروح الإجمالية – أن العقوبات ستختلف حسب مستوى المخاطر التي يتم اعتبارها – وكذلك عتبات لكل مستوى. يؤدي الانتهاك بشأن طلبات الذكاء الاصطناعى المحظورة إلى أعلى عقوبة تصل إلى “ما يصل إلى 35 مليون يورو أو 7 ٪ من إجمالي معدل دورانه السنوي في جميع أنحاء العالم للسنة المالية السابقة (أيهما أعلى).”

يمكن للمفوضية الأوروبية أيضًا إلحاق غرامات تصل إلى 15 مليون يورو أو 3 ٪ من دوران المبيعات السنوية على مقدمي نماذج GPAI.

ما مدى السرعة التي يعتزم اللاعبون الحاليون الامتثال؟

ال مدونة الممارسة GPAI التطوعية، بما في ذلك الالتزامات مثل عدم تدريب نماذج على المحتوى المقرصنة ، هو مؤشر جيد على كيفية التعامل مع الشركات مع قانون الإطار حتى يجبروا على ذلك.

في يوليو 2025 ، أعلنت ميتا أنها لن توقيع على مدونة الممارسة GPAI التطوعية المقصود لمساعدة هؤلاء مقدمي الخدمات الامتثال لقانون الاتحاد الأوروبي الذكاء الاصطناعي. ومع ذلك ، فقد أكدت Google بعد فترة وجيزة أنها ستوقع ، على الرغم من التحفظات.

الموقعين تشمل حتى الآن Aleph Alpha و Amazon و Anthropic و Cohere و Google و IBM و Microsoft و Mistral AI و Openai وغيرها. ولكن كما رأينا مع مثال Google ، فإن التوقيع لا يساوي تأييدًا كاملاً.

لماذا (بعض) شركات التكنولوجيا تقاتل هذه القواعد؟

أثناء القول في أ منشور المدونة ستوقع Google مدونة ممارسات GPAI التطوعية ، رئيسها للشؤون العالمية ، كنت ووكر ، لا يزال لديه تحفظات. “ما زلنا نشعر بالقلق من أن قانون الذكاء الاصطناعي ومخاطر الكود يبطئ تنمية أوروبا ونشر الذكاء الاصطناعي”.

كان Meta أكثر تطرفًا ، حيث قال كبير مسؤولي الشؤون العالمية جويل كابلان في أ بريد على LinkedIn أن “أوروبا تتجه إلى الطريق الخطأ على الذكاء الاصطناعي”. وذكر أن مدونة الممارسة “يطلق على تنفيذ الاتحاد الأوروبي لقانون الذكاء الاصطناعي” تجاوز “، أن مدونة الممارسة” تقدم عددًا من أوجه عدم اليقين القانونية لمطوري النماذج ، وكذلك التدابير التي تتجاوز نطاق قانون الذكاء الاصطناعي “.

وقد أعربت الشركات الأوروبية عن مخاوفها أيضًا. كان آرثر مينش ، الرئيس التنفيذي لبطل AI الفرنسي Mistral AI ، جزءًا من مجموعة من المديرين التنفيذيين الأوروبيين الذين وقعت رسالة مفتوحة في يوليو 2025 حث بروكسل على “توقف على مدار الساعة” لمدة عامين قبل أن تدخل الالتزامات الرئيسية لقانون الاتحاد الأوروبي الذكاء الاصطناعي حيز التنفيذ.

هل سيتغير الجدول الزمني؟

في أوائل يوليو 2025 ، استجاب الاتحاد الأوروبي سلبًا للضغط على الجهود التي تدعو إلى توقف مؤقت ، قائلاً إنها ستظل تلتزم بجدولها الزمني لتنفيذ قانون الاتحاد الأوروبي. المضي قدما في 2 أغسطس 2025 ، الموعد النهائي كما هو مخطط ، وسوف نقوم بتحديث هذه القصة إذا تغير أي شيء.


هذا المحتوي تم باستخدام أدوات الذكاء الإصطناعي

مشاركة الخبر
أخبار مشابهة