شكل باحثون من جامعة بكين فريقًا صغيرًا يهدف إلى “إعادة إنتاج” مولد Sora لتحويل النص إلى فيديو من OpenAI، وفقًا لصفحة مشروعه على GitHub، بعد أن أخذ النموذج الأصلي GenAI إلى المستوى التالي بعد طرحه في فبراير. بالتعاون مع شركة RabbitPre للذكاء الاصطناعي ومقرها شنتشن، تسعى أكبر مؤسسة أكاديمية في الصين إلى الحصول على موارد من مجتمع المصادر المفتوحة لأنها “غير قادرة على إجراء تدريب كامل” بسبب نقص بيانات الفيديو. ومع ذلك، قام الفريق بتطوير إطار عمل من ثلاثة أجزاء – بما في ذلك Video VQ-VAE، ومحول تقليل الضوضاء، وجهاز تشفير الحالة – وعرض تقدمه الأولي على GitHub، مع أربعة عروض فيديو توضيحية مُعاد بناؤها تقدم دقة ونسب عرض إلى ارتفاع مختلفة، تتراوح بين من ثلاث إلى 24 ثانية.[[جيثب]
من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.