من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.

جيس Weatherbed هو كاتب أخبار يركز على الصناعات الإبداعية والحوسبة وثقافة الإنترنت. بدأت جيس حياتها المهنية في TechRadar ، والتي تغطي الأخبار ومراجعات الأجهزة.

أدوبي هو إطلاق”https://blog.adobe.com/en/publish/2025/07/17/firefly-adds-new-video-capabilities-industry-leading-ai-models-generate-sound-effects-feature”> أدوات صناعة الأفلام الجديدة من الذكاء الاصطناعي التي توفر طرقًا ممتعة لإنشاء المؤثرات الصوتية والتحكم في مخرجات الفيديو التي تم إنشاؤها. إلى جانب النص المألوف ، يسمح لك عادةً بوصف نماذج Adobe Firefly AI أو تحريرها الآن ، يمكن للمستخدمين الآن استخدام تسجيلات صوتية تشبه Onomatopoeia لإنشاء أصوات مخصصة ، واستخدام لقطات مرجعية لتوجيه الحركات في مقاطع الفيديو التي تم إنشاؤها بواسطة Firefly.

أداة إنشاء المؤثرات الصوتية التي يتم إطلاقها في بيتا”https://adobe.prf.hn/click/camref:1011l3IdQV/%5Bp_id:1011l394533%5D/destination:https%3A%2F%2Fwww.adobe.com%2Fproducts%2Ffirefly.html” rel=”sponsored”> في تطبيق Firefly يمكن استخدامها مع لقطات مسجلة وتوليدها ، ويوفر تحكمًا أكبر في توليد الصوت من”http://www.theverge.com/ai-artificial-intelligence/673719/google-veo-3-ai-video-audio-sound-effects”> Google’s Veo 3 أداة الفيديو. تشبه الواجهة جدولًا زمنيًا لتحرير الفيديو وتسمح للمستخدمين بمطابقة التأثيرات التي يخلقونها في الوقت المناسب باستخدام لقطات تم تحميلها. على سبيل المثال ، يمكن للمستخدمين تشغيل مقطع فيديو لحصان يمشي على طول الطريق وتسجيل ضوضاء “Clop Clop” في وقت واحد في الوقت المناسب مع خطوات الحافر ، إلى جانب وصف نص يقول “الحوافر على الخرسانة”. ستقوم الأداة بعد ذلك بإنشاء أربعة خيارات تأثير صوت للاختيار من بينها.

هذا يبني على”http://www.theverge.com/2024/10/17/24272971/adobe-illustrator-sneaks-experimental-tech-demo-rotate-vector#:~:text=%E2%80%9CProjectSuperSonic%E2%80%9D”> مشروع تجربة Super Sonic أظهر هذا Adobe في حدث Max في أكتوبر. إنه لا يعمل من أجل الكلام ، ولكنه يدعم إنشاء تأثيرات مثل الأغصان التي تلتقط ، خطى ، تأثيرات سحاب ، وأكثر من ذلك ، وكذلك الضوضاء الجوية مثل أصوات الطبيعة وأجواء المدينة.

الضوابط المتقدمة الجديدة تأتي أيضًا إلى”http://www.theverge.com/news/610876/adobe-generate-video-ai-public-beta-available”> Firefly Text to-Video Generator. يتيح مرجع التكوين للمستخدمين تحميل مقطع فيديو إلى جانب موجه النص الخاص بهم لعكس تكوين تلك اللقطات في الفيديو الذي تم إنشاؤه ، مما يجب أن يسهل تحقيق نتائج محددة ، مقارنةً بإدخال أوصاف النص بشكل متكرر وحده. سوف يتيح زراعة Keyframe للمستخدمين قصاصات وتحميل الصور للألوان الأولى والأخيرة التي يمكن أن تستخدمها Firefly لإنشاء مقطع فيديو بين ، وتوفير مسبقات جديدة على الأنماط الجديدة مجموعة من الأساليب المرئية التي يمكن للمستخدمين اختيارها بسرعة ، بما في ذلك أنيمي وفن المتجهات والطين والمزيد.

هذه الإعدادات المسبقة للأنماط متاحة فقط لاستخدامها مع طراز AI Firefly Video الخاص بـ Adobe. تترك النتائج شيئًا مطلوبًا إذا كان العرض التوضيحي المباشر الذي رأيته هو أي مؤشر – يبدو خيار “Claymation” وكأنه رسوم متحركة ثلاثية الأبعاد في أوائل عام 2000. لكن Adobe مستمر”http://www.theverge.com/news/655230/adobe-ai-firefly-image-model-4-availability#:~:text=TheFireflywebappnowalsogivesusersaccesstothird%2DpartyAImodels”> أضف دعمًا لنماذج منافسة الذكاء الاصطناعي ضمن أدواتها الخاصة ، أخبر Alexandru Costin الرصاص Adobe التوليدي حرية قد تتوفر عناصر تحكم مماثلة و pretets لاستخدامها مع نماذج الذكاء الاصطناعى الطرف الثالث في المستقبل. هذا يشير إلى أن Adobe يتنافس على الحفاظ على مكانه في الجزء العلوي من برنامج Foodchain الإبداعي حيث تنمو أدوات الذكاء الاصطناعى في شعبية ، حتى لو كان متخلفًا عن أمثال Openai و Google في النماذج التوليدية نفسها.

اقرأ المزيد

AWS تكشف عن الأساس الأساسي ، وهي منصة جديدة لبناء وكلاء AI للمؤسسات مع أطر وأدوات مفتوحة المصدر
معلقة بخيط - وحبه

Reactions

0
0
0
0
0
0
بالفعل كان رد فعل لهذا المنصب.

ردود الفعل