تقرير بريطاني يكشف التحيز في الأدوات والأجهزة الطبية | صحة


كشف تقرير جديد أن الأقليات العرقية والنساء والأشخاص من المجتمعات المحرومة معرضون لخطر ضعف الرعاية الصحية بسبب التحيز داخل الأدوات والأجهزة الطبية.

ومن بين النتائج الأخرى، أثارت دراسة “المساواة في الأجهزة الطبية: مراجعة مستقلة” مخاوف بشأن الأجهزة التي تستخدم الذكاء الاصطناعي (AI)، وكذلك تلك التي تقيس مستويات الأكسجين.

وقال الفريق الذي يقف وراء المراجعة إن هناك حاجة إلى اتخاذ إجراءات عاجلة.

“نرغب في رؤية العدالة في دورة حياة الأجهزة الطبية بأكملها، بدءًا من الاختبار الأولي، وحتى توظيف المرضى سواء في المستشفى أو في المجتمع، وحتى دراسات المرحلة المبكرة والتنفيذ في الميدان بعد الحصول على الترخيص.” وقال البروفيسور فرانك كي، مدير مركز الصحة العامة بجامعة كوينز بلفاست، والمؤلف المشارك للمراجعة:

وقال وزير الصحة أندرو ستيفنسون: “إن التأكد من أن نظام الرعاية الصحية يعمل لصالح الجميع، بغض النظر عن العرق، هو أمر بالغ الأهمية لقيمنا كأمة. وقال: “إنه يدعم عملنا الأوسع لإنشاء خدمة صحية أكثر عدلاً وبساطة”.

تم إنشاء المراجعة بتكليف من الحكومة من قبل ساجد جاويد في عام 2022 عندما كان وزيرًا للصحة بعد أن أثيرت مخاوف بشأن دقة قراءات مقياس التأكسج النبضي لدى السود والأقليات العرقية.

وتم إلقاء الضوء على الأجهزة المستخدمة على نطاق واسع بسبب أهميتها في الرعاية الصحية خلال جائحة كوفيد، حيث كان انخفاض مستويات الأكسجين علامة مهمة على الإصابة بمرض خطير.

وأكد التقرير الجديد المخاوف من أن أجهزة قياس التأكسج النبضي تبالغ في تقدير كمية الأكسجين في دم الأشخاص ذوي البشرة الداكنة، مشيرًا إلى أنه على الرغم من عدم وجود دليل على أن هذا يؤثر على الرعاية في هيئة الخدمات الصحية الوطنية، فقد تم العثور على ضرر في الولايات المتحدة مع مثل هذه التحيزات التي تؤدي إلى تأخير التشخيص والعلاج، فضلاً عن تدهور وظائف الأعضاء والوفاة لدى المرضى السود.

ويؤكد الفريق أنهم لا يطالبون بتجنب الأجهزة. وبدلاً من ذلك، تطرح المراجعة عددًا من التدابير لتحسين استخدام مقاييس التأكسج النبضي لدى الأشخاص ذوي ألوان البشرة المختلفة، بما في ذلك الحاجة إلى النظر في التغييرات في القراءات بدلاً من القراءات الفردية، بينما تقدم أيضًا نصائح حول كيفية تطوير واختبار أجهزة جديدة. للتأكد من أنها تعمل بشكل جيد للمرضى من جميع الأعراق.

كما سلط التقرير الضوء على المخاوف بشأن الأجهزة القائمة على الذكاء الاصطناعي، بما في ذلك احتمال أن تؤدي هذه التكنولوجيا إلى تفاقم نقص تشخيص أمراض القلب لدى النساء، وتؤدي إلى التمييز على أساس الوضع الاجتماعي والاقتصادي للمرضى، وتؤدي إلى نقص تشخيص سرطانات الجلد. في الأشخاص ذوي ألوان البشرة الداكنة. ويقولون إن المخاوف بشأن هذا الأخير ترجع إلى حقيقة أن أجهزة الذكاء الاصطناعي مدربة إلى حد كبير على صور ذات ألوان البشرة الفاتحة.

وأشار التقرير أيضًا إلى مشاكل تتعلق بدرجات المخاطر الجينية – والتي غالبًا ما تستخدم لتوفير مقياس لخطر الإصابة بالمرض لدى الفرد بسبب جيناته.

وقال إنيتان كارول، أستاذ عدوى الأطفال في جامعة ليفربول والمؤلف المشارك: “مجموعات البيانات الجينية الرئيسية التي تستخدمها درجات المخاطر المتعددة الجينات هي بأغلبية ساحقة على الأشخاص من أصل أوروبي، مما يعني أنها قد لا تكون قابلة للتطبيق على أشخاص من أسلاف أخرى”. من المراجعة.

ومع ذلك، فإن محاولات تصحيح التحيزات يمكن أن تكون أيضًا مشكلة. ومن بين الأمثلة التي أبرزها التقرير، التصحيحات القائمة على العرق المطبقة على القياسات من الأجهزة المعروفة باسم مقاييس التنفس التي تستخدم لتقييم وظائف الرئة وتشخيص أمراض الجهاز التنفسي، والتي تبين أنها تحتوي على تحيزات.

ورحب البروفيسور حبيب نقفي، الرئيس التنفيذي لمرصد العرق والصحة التابع لهيئة الخدمات الصحية الوطنية، بالنتائج، مضيفًا أن المراجعة أقرت بالحاجة إلى تعديلات فورية وتقييمات للمساواة وتوجيهات وتنظيم أكثر صرامة حول أجهزة قياس التأكسج النبضي والأجهزة الطبية الأخرى.

“إن الوصول إلى صحة أفضل لا ينبغي أن يتحدد على أساس عرقك أو لون بشرتك؛ ولذلك يجب أن تكون الأجهزة الطبية مناسبة للغرض الذي يناسب جميع المجتمعات

“من الواضح أن الافتقار إلى التمثيل المتنوع في البحوث الصحية، وغياب اعتبارات المساواة القوية وندرة مناهج الإنتاج المشترك، قد أدى إلى التحيز العنصري في الأجهزة الطبية والتقييمات السريرية وفي تدخلات الرعاية الصحية الأخرى.”


اكتشاف المزيد من شبكة الريان

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من شبكة الريان

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading