من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.

شكل باحثون من جامعة بكين فريقًا صغيرًا يهدف إلى “إعادة إنتاج” مولد Sora لتحويل النص إلى فيديو من OpenAI، وفقًا لصفحة مشروعه على GitHub، بعد أن أخذ النموذج الأصلي GenAI إلى المستوى التالي بعد طرحه في فبراير. بالتعاون مع شركة RabbitPre للذكاء الاصطناعي ومقرها شنتشن، تسعى أكبر مؤسسة أكاديمية في الصين إلى الحصول على موارد من مجتمع المصادر المفتوحة لأنها “غير قادرة على إجراء تدريب كامل” بسبب نقص بيانات الفيديو. ومع ذلك، قام الفريق بتطوير إطار عمل من ثلاثة أجزاء – بما في ذلك Video VQ-VAE، ومحول تقليل الضوضاء، وجهاز تشفير الحالة – وعرض تقدمه الأولي على GitHub، مع أربعة عروض فيديو توضيحية مُعاد بناؤها تقدم دقة ونسب عرض إلى ارتفاع مختلفة، تتراوح بين من ثلاث إلى 24 ثانية.[[جيثب]

اقرأ أكثر

تجادل Microsoft بأن حكم VCR الصادر عن المحكمة العليا يجب أن يحكم على دعوى OpenAI التي رفعتها صحيفة نيويورك تايمز
يمكنك إضافة خطوط جديدة إلى محرّر مستندات Google

Reactions

0
0
0
0
0
0
بالفعل كان رد فعل لهذا المنصب.

ردود الفعل