التحكم في تعلم الذكاء الاصطناعي يتعلم عن نماذج إيتون ("السياسة") استخدامك لمجتمع الذكاء الاصطناعي وميزاته ووظائفه (بما في ذلك نماذج المكونات الخارجية) التي نقدمها (بشكل جماعي باسم "إيتون جي بي تي™ تكمل هذه السياسة حلول إيتون سياسة الخصوصية،, شروط الاستخدام،, سياسة أمن المعلومات، و واتفاقية البيانات..
مبادئ الذكاء الاصطناعي المسؤولة
تسترشد جهود الذكاء الاصطناعي لشركة إيتون سوليوشنز بثمانية مبادئ أساسية:
المحظورات
لا يجوز لك استخدام أو السماح للآخرين باستخدام إيتون جي بي تي™ من أجل:
- نشر المعلومات المضللة أو الخداع المتعمد.
- انتهاك حقوق الخصوصية للآخرين، بما في ذلك التتبع والمراقبة وتحديد الهوية بشكل غير قانوني.
- تصوير صوت الشخص أو صورته دون موافقته، بما في ذلك انتحال الشخصية غير المصرح به والصور الجنسية غير التوافقية.
- إيذاء القاصرين أو استغلالهم، بما في ذلك الاستمالة والاستغلال الجنسي للأطفال.
- مضايقة أو إيذاء أو تشجيع إيذاء الأفراد أو مجموعات معينة.
- التحايل عمدًا على مرشحات السلامة ووظائفها أو مطالبة النماذج بالتصرف ضد سياساتنا.
- أداء وظيفة مميتة باستخدام سلاح دون إذن أو سيطرة بشرية.
متطلبات الذكاء الاصطناعي المسؤول
عند اتخاذ القرارات التبعية، يجب عليك تقييم المخاطر المحتملة وتنفيذ الرقابة البشرية المناسبة والاختبار والضمانات. وتشمل القرارات التبعية تلك التي تؤثر على الحقوق الأساسية والصحة والسلامة والإجراءات القانونية والمزايا الحكومية والتعليم والتوظيف والإقراض/ الائتمان والمشورة المالية.
أنت مسؤول عن جميع القرارات والإجراءات والإخفاقات بناءً على استخدامك لـ إيتون جي بي تي™. المخرجات الناتجة عن أدوات الذكاء الاصطناعي احتمالية وقد تكون غير دقيقة أو غير مناسبة. يجب تقييمها للتأكد من دقتها وملاءمتها.
يجوز لشركة إيتون سوليوشنز التحقيق في انتهاكات هذه السياسة وإنفاذها كما هو مذكور في سياسة الاستخدام المقبول لشركة إيتون سوليوشنز. نحن ملتزمون بتطوير خدمات ذكاء اصطناعي آمنة وعادلة ودقيقة وتوفير الأدوات والإرشادات لمساعدتك على استخدام الذكاء الاصطناعي بمسؤولية.