لجنة الاعتصام بزنجبار تدعو إلى المشاركة في مظاهرة غدا السبت
تدعو لجنة مخيم اعتصام زنجبار المفتوح أبناء دلتا أبين والمنطقة الوسطى إلى المشاركة الواسعة والفاعلة ف...
كشفت دراسة جديدة، عن أن أداة الذكاء الاصطناعي الشهيرة "تشات جي بي تي" (ChatGPT) فشلت في الإجابة بشكل صحيح عن ما يقرب من 75 في المائة من الأسئلة المتعلقة باستخدام العقاقير الطبية. وبحسب شبكة "سي إن بي سي" الأميركية، فقد طرح الصيادلة في جامعة لونغ آيلاند الأميركية 39 سؤالاً متعلقاً بالأدوية على "تشات جي بي تي" ليجدوا أن 10 من إجاباته فقط يمكن عدّها مُرضِية. أما بالنسبة للـ29 سؤالاً الأخرى، فإن الإجابات كانت إما غير دقيقة أو غير كاملة، وفقاً للدراسة. وقالت سارة غروسمان، الأستاذة المساعدة في الصيدلة في جامعة لونغ آيلاند، والتي قادت فريق الدراسة: "يجب على المتخصصين في الرعاية الصحية والمرضى توخي الحذر بشأن استخدام (تشات جي بي تي) كمصدر موثوق للمعلومات المتعلقة بالأدوية". وتعليقاً على ذلك، أشار متحدث باسم شركة الذكاء الاصطناعي الأميركية "أوبن أيه آي"، المطورة لـ"تشات جي بي تي"، إلى أن الأداة لم يتم ضبطها بدقة لتوفير المعلومات الطبية. وأكد المتحدث على ضرورة عدم اعتماد المستخدمين على هذه الأداة كبديل للمشورة الطبية المتخصصة أو الرعاية التقليدية.