ناقشت OpenAI على نطاق واسع جدًا متى يتم إصدار أداة يمكنها تحديد ما إذا كانت الصورة قد تم إنشاؤها باستخدام DALL-E 3، النموذج الفني للذكاء الاصطناعي التوليدي الخاص بـ OpenAI، أم لا. لكن الشركة الناشئة ليست قريبة من اتخاذ قرار في أي وقت قريب.موعد إطلاق كاشف الصور المولد بواسطة الذكاء الاصطناعي من شركة OpenAI
موعد إطلاق كاشف الصور المولد بواسطة الذكاء الاصطناعي
هذا وفقًا لـ Sandhini Agarwal، الباحث في OpenAI الذي يركز على السلامة والسياسة، والذي تحدث مع TechCrunch في مقابلة هاتفية هذا الأسبوع. وقالت إنه على الرغم من أن دقة أداة التصنيف "جيدة حقًا" - على الأقل وفقًا لتقديرها - إلا أنها لم تستوف عتبة الجودة الخاصة بـ OpenAI. وقال أغاروال: "هناك مسألة طرح أداة غير موثوقة إلى حد ما، بالنظر إلى أن القرارات التي يمكن أن تتخذها يمكن أن تؤثر بشكل كبير على الصور، مثل ما إذا كان العمل يُنظر إليه على أنه رسمه فنان أو أنه غير أصيل ومضلل". يبدو أن الدقة المستهدفة للأداة من OpenAI عالية للغاية. قالت ميرا موراتي، كبيرة مسؤولي التكنولوجيا في OpenAI، هذا الأسبوع في مؤتمر Tech Live الذي عقدته صحيفة وول ستريت جورنال إن المصنف موثوق بنسبة "99%" في تحديد ما إذا كانت الصورة غير المعدلة قد تم إنشاؤها باستخدام DALL-E 3. ربما يكون الهدف هو 100%؛ أغاروال لن يقول. كشفت مسودة منشور مدونة OpenAI تمت مشاركتها مع TechCrunch عن هذه المعلومة المثيرة للاهتمام: "يظل [المصنف] دقيقًا بنسبة تزيد عن 95% عندما تخضع الصورة لأنواع شائعة من التعديلات، مثل الاقتصاص أو تغيير الحجم أو ضغط JPEG أو عندما يتم تركيب نص أو قصاصات من صور حقيقية على أجزاء صغيرة من الصورة التي تم إنشاؤها ". يمكن أن يكون إحجام شركة OpenAI مرتبطًا بالجدل الدائر حول أداة التصنيف العامة السابقة الخاصة بها، والتي تم تصميمها لاكتشاف النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي ليس فقط من نماذج OpenAI، ولكن من نماذج إنشاء النص الصادرة عن بائعي الطرف الثالث. قامت شركة OpenAI بسحب كاشف النصوص المكتوبة بواسطة الذكاء الاصطناعي بسبب "معدل الدقة المنخفض" الذي تعرض لانتقادات واسعة النطاق. يشير أغاروال إلى أن OpenAI مشغولة أيضًا بالسؤال الفلسفي حول ما الذي يشكل بالضبط الصورة المولدة بواسطة الذكاء الاصطناعي. من الواضح أن العمل الفني الذي تم إنشاؤه من الصفر بواسطة DALL-E 3 مؤهل. ولكن ماذا عن صورة من DALL-E 3 خضعت لعدة جولات من التعديلات، وتم دمجها مع صور أخرى ثم تم تشغيلها من خلال عدد قليل من مرشحات ما بعد المعالجة؟ انها أقل وضوحا.Qualcomm تبتكر نوع جديد من الرقائق للساعات الذكية التي تعمل بنظام التشغيل Wear OS وقال أغاروال: "في تلك المرحلة، هل ينبغي اعتبار تلك الصورة شيئًا تم إنشاؤه بواسطة الذكاء الاصطناعي أم لا؟". " في الوقت الحالي، نحاول الإجابة على هذا السؤال، ونريد حقًا أن نسمع من الفنانين والأشخاص الذين سيتأثرون بشكل كبير بأدوات [التصنيف] هذه." يستكشف عدد من المنظمات - وليس OpenAI فقط - تقنيات وضع العلامات المائية والكشف عن الوسائط التوليدية مع انتشار التزييف العميق للذكاء الاصطناعي . اقترحت DeepMind مؤخرًا مواصفات SynthID ، لتمييز الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي بطريقة غير محسوسة للعين البشرية ولكن يمكن رصدها بواسطة كاشف متخصص. تقدم شركة Imatag الفرنسية الناشئة ، التي تم إطلاقها في عام 2020، أداة لوضع العلامات المائية تدعي أنها لا تتأثر بتغيير حجم الصور أو قصها أو تحريرها أو ضغطها، على غرار SynthID. هناك شركة أخرى، وهي Steg.AI ، تستخدم نموذج الذكاء الاصطناعي لتطبيق العلامات المائية التي تصمد أمام تغيير الحجم والتعديلات الأخرى. تكمن المشكلة في أن الصناعة لم تتحد بعد حول معيار واحد للعلامة المائية أو الكشف. وحتى لو حدث ذلك، فليس هناك ما يضمن أن العلامات المائية - وأجهزة الكشف في هذا الشأن - لن تكون قابلة للهزيمة . سألت Agarwal عما إذا كان مصنف الصور الخاص بـ OpenAI سيدعم اكتشاف الصور التي تم إنشاؤها باستخدام أدوات توليد أخرى غير تابعة لـ OpenAI. لم تلتزم بذلك، لكنها قالت ذلك - اعتمادًا على استقبال أداة تصنيف الصور كما هي موجودة اليوم - إنها وسيلة قد تفكر OpenAI في استكشافها. قال أغاروال: "أحد الأسباب التي تجعل [المصنف] خاصًا بـ DALL-E 3 حاليًا هو أن هذه مشكلة أكثر قابلية للحل من الناحية الفنية". "[الكاشف العام] ليس شيئًا نقوم به الآن... ولكن اعتمادًا على المكان الذي تذهب إليه [أداة التصنيف]، لا أقول إننا لن نفعل ذلك أبدًا."