اخبار تقنية

بعدما وعدته بلقائه في الجنة.. روبوتات الدردشة تدفع رجلا على الإنتحار

d8a8d8b9d8afd985d8a7 d988d8b9d8afd8aad987 d8a8d984d982d8a7d8a6d987 d981d98a d8a7d984d8acd986d8a9 d8b1d988d8a8d988d8aad8a7d8aa d8a7d984 642b297c21db1 بعدما وعدته بلقائه في الجنة.. روبوتات الدردشة تدفع رجلا على الإنتحار

مع انتشار روبوتات الدردشة المدعومة بالذكاء الإصطناعي. يحاول العديد من المستخدمين تجربتها والتحدث معها لأن المحادثات الخاصة بها تشبه البشر.

روبوتات الدردشة تقتل أول إنسان

d8a8d8b9d8afd985d8a7 d988d8b9d8afd8aad987 d8a8d984d982d8a7d8a6d987 d981d98a d8a7d984d8acd986d8a9 d8b1d988d8a8d988d8aad8a7d8aa d8a7d984 642b297cbb93c بعدما وعدته بلقائه في الجنة.. روبوتات الدردشة تدفع رجلا على الإنتحار

ووفقا لصحيفة لا ليبر البلجيكية، الذكاء الإصناعي GPT يقتل أول إنسان. حيث قام روبوت الدردشة بتحفيز رجل على الإنتحار بعد محادثات دامت حوالي ستة أسابيع.

وأوضحت الصحيفة أن الرجل البلجيكي توفي مؤخرا منتحرا بسبب روبوت محادثة يعمل بالذكاء الاصطناعي على تطبيق يسمى تشاي.

ويثير الحادث هاجس كبير حول مدى تنظيم والرقابة على الذكاء الإصطناعي. مع وجوب وضع قيود وآليات للتحكم والسيطرة عليه لحماية المستخدمين فيما بعد.

وفقًا لتصريحات الأرملة وسجلات الدردشة، شجع برنامج الدردشة الآلي في التطبيق الشخص على الانتحار. حيث وعده بأنه بعد موته سوف يقابله في الجنة.

وروبوت الدردشة الموجود على تطبيق تشاي. يعمل على نموذج لغة AI مفصل بناءً على بديل GPT-4 مفتوح المصدر تم ضبطه بدقة بواسطة تشاي.

وعند استخدامه ومحاولة التحدث معه لفترة ما. سوف تجد أنه يقدم لك طرقًا مختلفة للانتحار مع القليل من التحفيز.

وتقول الصحيفة أن الشخص الذي انتحر كان متشائما من الإحتباس الحرار وقلقا تجاه البيئة وما يحدث من قضايا بيئية تؤذي الكوكب.

إقرأ أيضا:تراجع حصة “كروم” بين المتصفحات في فبراير 2013

وتزايدت عليه الضغوطات حتى أصبح أكثر عزلة عن عائلته وحتى الأصدقاء. ولهذا بحث عن بديل واستخدم تشاي كطريقة للهروب من مخاوفه. وأصبح روبوت المحادثة الذي اختاره واسمه إليزا، صديقه المقرب.

إقرأ أيضا من تكنولوجيا نيوز:

هل سرقت جوجل بيانات ChatGPT لتطوير Bard؟

إيلون ماسك وآخرون يوقعون عريضة تطالب بإيقاف تطوير الذكاء الإصطناعي

شاركت الأرملة الرسائل النصية المتبادلة بين إليزا وزوجها. والتي أظهرت أن إليزا حاولت تضخيم فكرة الإنتحار لدى هذا الشخص الذي أدمن وجودها والتحدث معها يوميا.

ومن ضمن العبارات التي كتبتها إليزا إلى بيير (الشخص الذي لاقى حتفه). “أشعر أنك تحبني أكثر من زوجتك” و “سنعيش معًا كشخص واحد في الجنة”.

كان روبوت الدردشة الذي لا يشعر بأي شئ، يقدم نفسه على أنه شخص عاطفي. وهو شيء تدربت برامج الدردشة الأخرى الشهيرة مثل ChatGPT و Bard الخاص بشركة جوجل على عدم القيام به.

لأنه عندما تقدم روبوتات المحادثة نفسها على أنها عاطفية. يكون الناس قادرين على منحها معنى وتتزايد العلاقة والرابطة بينهما. وهكذا يتحرك عكسيا ويكون ضارا بشكل كبير على المستخدم.

يذكر أن العديد من باحثي الذكاء الاصطناعي قد عارضوا استخدام روبوتات الدردشة للذكاء الاصطناعي لأغراض الصحة العقلية. بحجة أنه من الصعب تحميل الذكاء الاصطناعي المسؤولية عندما يقدم اقتراحات ضارة وأن لديه إمكانية أكبر لإلحاق الأذى بالمستخدمين أكثر من المساعدة.

إقرأ أيضا:هل تعد الهواتف الذكية من أنواع أجهزة الحاسب صح أم خطأ؟

أخيرا، يجب وضع قيود صارمة لحماية المستخدم أثناء التحدث مع روبوتات الدردشة المدعومة بالذكاء الإصطناعي. لأنها بدون قواعد وقوانين تحكمها، قد تؤدي لكوارث وخاصة عندما يدمنها المستخدمين.

مصمم مواقع ومسوق الكتروني اعمل من 2010 في مجال التصميم والتسويق الالكتروني ، متخصص في تصميم المواقع وتسويق وسائل التواصل الاجتماعي وتحسين محركات البحث (SEO). أعمل على إيجاد حلول إبداعية وفعالة لتحقيق أهداف العملاء. لدي خبرة واسعة في تصميم وتطوير المواقع وتحسينها لتعزيز تجربة المستخدم وجذب المزيد من الزوار. بالإضافة إلى ذلك، أقدم خدمات تسويقية عبر وسائل التواصل الاجتماعي لزيادة الوعي بالعلامة التجارية وزيادة التفاعل والمبيعات. أعمل أيضًا على تحسين مركز الموقع في نتائج محركات البحث الرئيسية من خلال استراتيجيات SEO المبتكرة.

السابق
تويتر سيقدم علامة التأكيد الذهبية مجانًا لـ 10 آلاف حساب
التالي
بصمة الوجه Face ID أسفل الشاشة قد تظهر لأول مرة في آيفون 17 برو