أخيرا، chatgpt يتحدث بصوت بشري

أطلقت OpenAI أخيرًا الوضع الصوتي المتقدم لـ ChatGPT لجمهور أوسع. يقربنا هذا التحديث خطوة واحدة من مستوي المحادثات الطبيعية مع الذكاء الاصطناعي.

ما الجديد؟

بعد أشهر من الاختبار والتحسين، تقوم OpenAI بطرح الوضع الصوتي المتقدم لجميع مشتركي ChatGPT Plus و Team. سيتم هذا الإصدار التدريجي على مدار الأيام القليلة القادمة، بدءًا من المستخدمين في الولايات المتحدة.

الميزات الرئيسية:

  1. تحدث بدلاً من الكتابة: يمكن للمستخدمين الآن إجراء محادثات شفهية مع ChatGPT، مما يجعل التفاعلات أكثر طبيعية وسهولة في الوصول.
  2. أصوات جديدة: انضمت خمسة أصوات ذكاء اصطناعي جديدة إلى المجموعة الحالية – Arbor و Maple و Sol و Spruce و Vale. توفر هذه الإضافات المزيد من التنوع وخيارات الشخصية للمستخدمين.
  3. تعليمات مخصصة وذاكرة: يمكن للمساعد الصوتي الآن تذكر تفضيلات المستخدم عبر المحادثات، مما يخلق تجربة أكثر تخصيصًا.
  4. دعم محسن للغات: قامت OpenAI بتحسين التعرف على اللهجات لأكثر اللغات الأجنبية شيوعًا في ChatGPT.
  5. محادثات أكثر سلاسة: يمكن للمستخدمين توقع استجابات أسرع وتدفق محادثة أكثر طبيعية.

يأتي بعد تأخيرات وجدل

لم تُستقبل فكرة أصوات الذكاء الاصطناعي التي تتحدث في الوقت الفعلي وتستجيب بالمشاعر المناسبة دائمًا بشكل جيد.

كانت محاولة OpenAI لإضافة أصوات إلى ChatGPT مثيرة للجدل منذ البداية. في شهر مايو الذي أعلنت فيه عن GPT-4o والوضع الصوتي، لاحظ الناس تشابهًا بين أحد الأصوات، وهو “Sky”، وصوت الممثلة سكارليت جوهانسن.

لم يساعد الأمر أن الرئيس التنفيذي لـ OpenAI، سام ألتمان، نشر كلمة “her” على وسائل التواصل الاجتماعي، في إشارة إلى الفيلم الذي قامت فيه جوهانسن بأداء صوت مساعد ذكاء اصطناعي. أثار هذا الجدل مخاوف بشأن قيام مطوري الذكاء الاصطناعي بتقليد أصوات الشخصيات المعروفة.

نفت الشركة أنها استخدمت صوت جوهانسن وأصرت على أنها لم تنوِ توظيف ممثلين تشبه أصواتهم أصوات الآخرين.

قالت الشركة إن المستخدمين مقيدون فقط بالأصوات التسعة من OpenAI. كما ذكرت أنها قيّمت سلامة النظام قبل إطلاقه.

وقالت الشركة في إعلان للصحفيين: “لقد اختبرنا قدرات الصوت للنموذج مع فرق خارجية متخصصة، يتحدثون مجتمعين ما مجموعه 45 لغة مختلفة، ويمثلون 29 منطقة جغرافية مختلفة”.

ومع ذلك، أخرت الشركة إطلاق الوضع الصوتي المتقدم لـ ChatGPT من موعد الإطلاق الأولي المخطط له في أواخر يونيو إلى “أواخر يوليو أو أوائل أغسطس”، وحتى ذلك الحين فقط لمجموعة من المستخدمين الأوليين الذين اختارتهم OpenAI مثل إيثان موليك، أستاذ كلية وارتون لإدارة الأعمال بجامعة بنسلفانيا، مستشهدة بالحاجة إلى مواصلة اختبارات السلامة أو “الاختبار الأحمر” للوضع الصوتي لتجنب استخدامه في الاحتيال المحتمل وسوء السلوك.

من الواضح أن الشركة تعتقد أنها قامت بما يكفي لإطلاق هذا الوضع على نطاق أوسع الآن – وهذا يتماشى مع نهج OpenAI الأكثر حذرًا في الآونة الأخيرة، حيث تعمل جنبًا إلى جنب مع حكومات الولايات المتحدة والمملكة المتحدة وتسمح لهم بمعاينة النماذج الجديدة مثل سلسلة o1 قبل إطلاقها.