عندما يتعلق الأمر بمخاطر الذكاء الاصطناعي ، وحماية البيانات الشخصية والخصوصية ، فإن القلق بشأن سرية وأمن المعلومات يصبح ذا أهمية متزايدة ، في هذا السياق ، فتحت لجنة التجارة الفيدرالية (FTC) تحقيقًا مكثفًا في الشركة OpenAI ، من أجل التحقق مما إذا كانت البيانات الشخصية في خطر بسبب مؤسس ChatGPT ، الروبوت الذكي الشهير.

مخاطر الذكاء الاصطناعي

وفقًا لتقرير نُشر في صحيفة The Washington Post ، طلبت لجنة التجارة الفيدرالية (FTC) وثائق مفصلة من شركة OpenAI لفهم كيفية التعامل مع المخاطر المتعلقة بنماذج الذكاء الاصطناعي ذات اللغات الكبيرة. يخشى أعضاء لجنة التجارة الفيدرالية من أن الشركة قد تنتهك قوانين حماية المستهلك من خلال الممارسات التي قد تكون “غير عادلة أو خادعة”. هذا يعرض خصوصية الجمهور وسمعته وأمنه للخطر.

ثغرات أمنية OpenAI

تتركز مخاوف اللجنة على وجه التحديد حول الخلل الذي تسبب في تسرب البيانات والمعلومات الحساسة لمستخدمي ChatGPT ، بما في ذلك البيانات المصرفية للمستخدمين. على الرغم من أن OpenAI أكدت أن عدد المستخدمين المتأثرين كان صغيرًا جدًا ، إلا أن FTC قلقة من أن الخلل يشير إلى ضعف في ممارسات أمان الشركة.

تحقيق FTC في معالجة OpenAI للبيانات الشخصية

هدف FTC هو الحصول على تفاصيل حول أي شكاوى تتعلق ببيانات كاذبة أو خبيثة عن الأفراد ، بالإضافة إلى معرفة مدى وعي المستخدمين بدقة المنتجات التي يستخدمونها. وهذا يعكس التزام اللجنة بضمان سلامة المستهلك وحماية خصوصيته.

المصدر: وكالات

Share.

Leave A Reply