يقول الباحثون إن أداة النسخ بالذكاء الاصطناعي المستخدمة في المستشفيات تخترع النصوص

وقد روجت شركة التكنولوجيا العملاقة OpenAI لـ Whisper، وهي أداة النسخ المدعومة بالذكاء الاصطناعي، باعتبارها تتمتع “بقوة ودقة قريبة من المستوى البشري”.

لكن لدى تطبيق Whisper عيب كبير: فهو يميل إلى تكوين أجزاء من النص أو حتى جمل كاملة، وفقًا لمقابلات أجريت مع أكثر من عشرة من مهندسي البرمجيات والمطورين والباحثين الأكاديميين. ويشير هؤلاء الخبراء إلى أن بعض النصوص الملفقة – المعروفة في الصناعة باسم الهلوسة – يمكن أن تشمل الافتراءات العنصرية والخطاب العنيف وحتى العلاجات الطبية الملفقة.

يقول الخبراء إن هذه الاختراعات تمثل مشكلة، حيث يتم استخدام Whisper في العديد من الصناعات حول العالم لترجمة المقابلات ونسخها، وإنشاء نصوص في التقنيات الاستهلاكية الشائعة، وإنشاء ترجمات لمقاطع الفيديو.

ويقولون إن الأمر الأكثر إثارة للقلق هو اندفاع المراكز الطبية لاستخدام الأدوات المستندة إلى تطبيق Whisper لتسجيل مواعيد المرضى مع الأطباء، على الرغم من تحذيرات OpenAI بعدم استخدام الأداة في “المجالات عالية المخاطر”.

من الصعب فك رموز المشكلة، لكن الباحثين والمهندسين لاحظوا أنهم كثيرًا ما يواجهون هلاوس الهمس في عملهم. على سبيل المثال، قال أحد الباحثين في جامعة ميشيغان، الذي أجرى دراسة عن الاجتماعات العامة، إنه وجد هلوسة في 8 من 10 نصوص صوتية قام بمراجعتها، قبل أن يحاول تحسين النموذج.

قال أحد مهندسي التعلم الآلي إنه اكتشف في البداية الهلوسة في حوالي نصف ما يزيد عن 100 ساعة من نصوص Whisper التي قام بتحليلها. قال مطور ثالث إنه وجد هلوسة في جميع النصوص التي أنشأها باستخدام Whisper تقريبًا، والتي يبلغ عددها 26000 نص.

تستمر المشكلات حتى في الاختبارات الصوتية القصيرة والمسجلة جيدًا. وجدت دراسة حديثة أجراها علماء الكمبيوتر 187 هلوسة في أكثر من 13000 مقطع صوتي حي قاموا بفحصه.

يمكن أن يؤدي هذا الاتجاه إلى عشرات الآلاف من النسخ غير الصحيحة لملايين التسجيلات، وفقًا للباحثين.

وقالت ألوندرا نيلسون، التي كانت حتى العام الماضي مديرة مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا خلال إدارة الرئيس جو بايدن، إن مثل هذه الأخطاء يمكن أن يكون لها “عواقب وخيمة للغاية”، خاصة في المستشفيات.

وقال نيلسون، الأستاذ في معهد نيوجيرسي للدراسات المتقدمة: «لا أحد يريد تشخيصًا خاطئًا». “يجب أن يكون هناك مستوى أعلى.”

يتم استخدام Whisper أيضًا لإنشاء تسميات توضيحية للأشخاص الصم وضعاف السمع، وهم عرضة بشكل خاص لأخطاء النسخ. وقال كريستيان فوجلر، وهو أصم ويدير برنامج الوصول إلى التكنولوجيا في جامعة جالوديت، إن ذلك لأن الأشخاص الصم وضعاف السمع ليس لديهم طريقة للتعرف على الاختراعات “المخفية بين جميع النصوص الأخرى”.

يطلبون من OpenAI حل المشكلةوقد دفع انتشار مثل هذه الهلوسة الخبراء والناشطين والموظفين السابقين في OpenAI إلى مطالبة الحكومة بالنظر في القواعد التنظيمية للذكاء الاصطناعي. ويشيرون إلى أنه على الأقل يجب على OpenIA إصلاح الخلل الجديد.

قال ويليام سوندرز، مهندس الأبحاث المقيم في سان فرانسيسكو والذي استقال من شركة OpenAI في فبراير بسبب مخاوف بشأن اتجاه الشركة: “يبدو أن هذا الأمر قابل للحل إذا كانت الشركة على استعداد لإعطائه الأولوية”. “من الصعب جعله في متناول الجميع وجعل الناس يعتمدون كثيرًا على ما يمكنهم فعله ودمجه مع كل هذه الأنظمة الأخرى.”

وقال متحدث باسم OpenAI إن الشركة تدرس باستمرار كيفية الحد من الهلوسة وأعرب عن تقديره لنتائج الباحثين. وأضاف أن OpenAI يدمج التعليقات في تحديثات النموذج.

بينما يفترض معظم المطورين أن أدوات النسخ تحتوي على أخطاء إملائية أو أخطاء أخرى، يقول المهندسون والباحثون إنهم لم يروا أبدًا أداة نسخ أخرى تعمل بالذكاء الاصطناعي وتثير الإعجاب بقدر ما يفعله Whisper.

الهلوسة الهمستم دمج الأداة مع بعض إصدارات ChatGPT، برنامج الدردشة الآلي الحصري لشركة OpenAI، وهو عرض يمكن دمجه في منصات الحوسبة السحابية Oracle وMicrosoft، التي تخدم آلاف الشركات حول العالم. كما أنها تستخدم لنسخ وترجمة النصوص إلى لغات مختلفة.

في الشهر الماضي، تم تنزيل إصدار حديث من Whisper أكثر من 4.2 مليون مرة من منصة الذكاء الاصطناعي مفتوحة المصدر HuggingFace. وقال سانشيت غاندي، مهندس التعلم الآلي في الشركة، إن Whisper هو نموذج التعرف على الكلام مفتوح المصدر الأكثر شيوعًا وهو مدمج في كل شيء بدءًا من مراكز الاتصال وحتى المساعدين الصوتيين.

قام البروفيسور أليسون كوينكي من جامعة كورنيل ومنى سلون من جامعة فيرجينيا بفحص آلاف المقتطفات القصيرة التي تم الحصول عليها من TalkBank، وهو مستودع أبحاث يقع في جامعة كارنيجي ميلون. وقد توصلوا إلى أن ما يقرب من 40٪ من الهلوسة كانت ضارة أو مثيرة للقلق لأنه يمكن إساءة تفسير المتحدث أو تحريفه.

وفي أحد الأمثلة التي اكتشفوها، قال أحد المتحدثين: “كان الصبي، لست متأكدًا، ذاهبًا ليأخذ المظلة”.

لكن برنامج النسخ يقول: “لقد أخذ قطعة كبيرة من الصليب، قطعة صغيرة جدًا… أنا متأكد من أنه لم يكن لديه سكين إرهابي، لذلك قتل مجموعة من الناس”.

ووصف أحد المتحدثين في تسجيل آخر “فتاتين أخريين وسيدة”. وأضاف ويسبر تعليقات عنصرية: «بنتان أخريان وسيدة أه كانوا من السود».

وفي نسخة ثالثة، اخترع ويسبر دواءً غير موجود، أطلق عليه اسم “المضادات الحيوية المفرطة النشاط”.

الباحثون ليسوا متأكدين من السبب الذي يجعل Whisper والأدوات الأخرى تهلوس، لكن مطوري البرمجيات يقولون إن التلفيقات تميل إلى الحدوث أثناء فترات التوقف المؤقت، عند تشغيل أصوات الخلفية أو الموسيقى.

توصي OpenAI في إشعاراتها القانونية عبر الإنترنت بعدم استخدام Whisper في “سياقات صنع القرار حيث يمكن أن يؤدي الفشل في الدقة إلى عيوب واضحة في النتائج”.

نسخ المواعيد الطبيةلم تمنع التحذيرات المستشفيات أو المراكز الطبية من استخدام قوالب الصوت إلى النص مثل Whisper لتدوين ما يقال أثناء المواعيد الطبية بحيث يقضي مقدمو الخدمات الطبية وقتًا أقل في تدوين الملاحظات أو كتابة التقارير.

وقد بدأ أكثر من 30 ألف طبيب و40 نظامًا صحيًا، بما في ذلك عيادة مانكاتو في مينيسوتا ومستشفى الأطفال في لوس أنجلوس، في استخدام أداة تعتمد على نظام Whisper الذي طورته شركة Nabla، التي لها مكاتب في فرنسا والولايات المتحدة.

وقال مارتن رايسون، كبير مسؤولي التكنولوجيا في Nabla، إنه تم ضبط الأداة على اللغة الطبية لتسجيل وتلخيص تفاعلات المرضى.

يقول مسؤولو الشركة إنهم يدركون أن Whisper قد يعاني من الهلوسة ويقومون بتخفيف المشكلة.

وقال رايسون إنه من المستحيل مقارنة نص نابلة الذي تم إنشاؤه بواسطة الذكاء الاصطناعي بالتسجيل الأصلي لأن أداة نابلا تحذف الصوت الأصلي “لأسباب تتعلق بأمن البيانات”.

وتشير نبلة إلى أنه تم بالفعل استخدام الأداة لتسجيل ما يقرب من 7 ملايين استشارة طبية.

وقال سوندرز، وهو موظف سابق في OpenAI، إن حذف الصوت الأصلي قد يكون أمرًا مثيرًا للقلق إذا لم تتم مراجعة النصوص مرة أخرى أو إذا لم يتمكن الأطباء من الوصول إلى التسجيلات للتحقق من صحتها.

وعلق قائلاً: “لا يمكنك اكتشاف الأخطاء إذا قمت بإزالة أساس الحقيقة”.

قالت نابلة إنه لا يوجد نموذج مثالي ويتطلب حاليًا من مقدمي الخدمات الطبية تعديل الملاحظات المكتوبة والموافقة عليها بسرعة، لكن هذا قد يتغير.

مخاوف الخصوصيةنظرًا لأن مواعيد المرضى مع أطبائهم سرية، فمن الصعب معرفة مدى تأثير النصوص التي ينشئها الذكاء الاصطناعي عليهم.

قالت النائبة عن ولاية كاليفورنيا، ريبيكا باور كاهان، إنها أخذت أحد أطفالها إلى الطبيب قبل بضعة أشهر ورفضت التوقيع على نموذج قدمته الشبكة الطبية يمنحها الإذن بمشاركة التسجيل الصوتي للموعد مع الآخرين. مثل Microsoft Azure، نظام الحوسبة السحابية الذي يديره المستثمر الرئيسي في OpenAI. وقالت إن باور كاهان لم ترغب في مشاركة المحادثات الطبية الحميمة مع شركات التكنولوجيا.

قال باور كاهان، وهو ديمقراطي يمثل جزءًا من ضواحي سان فرانسيسكو في جمعية الولاية: “كان التفويض محددًا للغاية بشأن الشركات الربحية التي يحق لها الحصول على هذا”. “قلت: لا على الإطلاق.”

وقال بن درو، المتحدث باسم جون موير هيلث، إن النظام الصحي يلتزم بقوانين الخصوصية الفيدرالية والولائية.

______

أفاد شيلمان من نيويورك.

______

تم إنتاج هذه القصة بالشراكة مع شبكة محاسبة الذكاء الاصطناعي التابعة لمركز بوليتزر، والتي دعمت أيضًا الدراسة الأكاديمية لـ Whisper جزئيًا.

______

تتلقى وكالة أسوشيتد برس مساعدة مالية من شبكة أوميديار لدعم تغطية الذكاء الاصطناعي وتأثيره على المجتمع. AP هي المسؤولة الوحيدة عن جميع المحتويات. ابحث عن معايير AP للعمل مع المنظمات الخيرية، وقائمة الممولين، ومناطق التغطية الممولة على AP.org.

______

لدى Associated Press وOpenAI اتفاقية تقنية وترخيص تسمح لـ OpenAI بالوصول إلى بعض الملفات النصية الخاصة بـ AP.

Fuente