تتلقى أداة التفريغ الصوتي “Whisper” التابعة لشركة OpenAI انتقادات متزايدة نتيجة لعملية “اختلاق” نصوص غير حقيقية أثناء تفريغ التسجيلات الصوتية، مما يثير القلق في بعض المجالات الحيوية التي تعتمد على هذه التقنية، مثل المستشفيات والمراكز الطبية.

وأفاد عدد من المطورين والباحثين الأكاديميين بأن الأداة تُدخل معلومات غير دقيقة، مثل أسماء أدوية وهمية وتعليقات تحمل طابعًا عنصريًا، بالإضافة إلى عبارات تتضمن العنف.

على الرغم من هذه التحذيرات، حققت النسخة الأحدث من الأداة نحو 4.2 مليون عملية تحميل عبر منصات المصدر المفتوح خلال الشهر الماضي، كما تم دمج الأداة في منصات الحوسبة السحابية لشركتي أوراكل ومايكروسوفت، مما يعكس انتشارها السريع.

تشير الأدلة التي جمعتها جامعات وفرق بحثية متخصصة إلى أن هذه المشاكل ليست نادرة، بل منتشرة بشكل كبير. فعلى سبيل المثال، قام باحث من جامعة ميشيغان برصد نصوص مُختلقة في ثمانية من كل عشرة تسجيلات للاجتماعات العامة.

وفي دراسة أخرى، وثّق علماء الحاسوب نحو 187 حالة “هلوسة” من خلال تحليل أكثر من 13 ألف تسجيل صوتي. كما وُجدت هذه الاختلاقات في حوالي 26 ألف تسجيل تم تفريغه نصيًا باستخدام أداة Whisper.

تتفاقم هذه الأخطاء بشكل خاص في المجال الطبي، حيث أفادت التقارير أن شركة تُدعى “نابلا” تعتمد على أداة Whisper لتفريغ التسجيلات الطبية، مقدمةً خدماتها لأكثر من 30 ألف طبيب و40 نظامًا صحيًا، وقد تم استخدام الأداة في الشركة لتفريغ ما يقارب 7 ملايين استشارة طبية حتى الآن.

حتى الآن، لا توجد آلية للتحقق من دقة النصوص المُفرّغة، ما دفع الشركة إلى اتخاذ خطوات لحماية البيانات، وفقًا لتأكيدات المسؤولين فيها الذين يطلبون من الأطباء مراجعة النصوص وتحريرها بشكل سريع، مما يضيف عبئًا إضافيًا على الطواقم الطبية ويثير تساؤلات حول مدى إمكانية تطبيقه بشكل فاعل.

تظل الدقة في تفريغ التسجيلات الصوتية هاجسًا أساسيًا، خصوصًا في مجالات حساسة مثل المجال الطبي، حيث يمكن أن تؤدي النصوص المختلقة إلى تداعيات خطيرة على القرارات العلاجية.