معلومة

حول إمكانية "علم نفس الروبوت"

حول إمكانية


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

إذا كان نظام الروبوت مع ذكاء اصطناعي متقدم. نظام التشغيل لديه "القدرة" على "القيام باستبطان" غير موجه "أو" شبه غير موجه "و" تكوين "جميع أنواع هياكل" التفكير "حول أي موضوع (لم يكن له علاقة مباشرة بـ" التشغيل "المهم وظائف) هل يمكن لهذه "الهياكل الفكرية" و "الإدارة" غير المهمة بالضرورة أن تسبب شيئًا مشابهًا للمشكلات النفسية في الروبوت؟


اعتمادًا على تعريف "علم النفس" و "المشاكل النفسية" أكيد. يعرف APA علم النفس بأنه "الدراسة العلمية لسلوك الأفراد وعملياتهم العقلية." إذا أخذنا هذا لتطبيقه على الأنظمة البيولوجية فقط (كما أنا متأكد من أن العديد من الباحثين يفعلون ذلك) فعندئذ لا ، لأن الروبوت ليس نظامًا بيولوجيًا وبالتالي لا يمكننا دراسته تحت عنوان علم النفس وربما ندرسه تحت شيء ما أقرب إلى "الهندسة". ومع ذلك ، إذا كان المرء سعيدًا بتطبيق الشيء نفسه على الروبوتات ، كما أفترض أنك كذلك ، فعندئذ نعم.

بافتراض الأخير ، وإذا كنت تعتقد أن "قدرة" الكائن على "القيام باستبطان" غير موجه "أو" شبه موجه "و" تكوين "كل أنواع الهياكل" الفكرية "حول أي موضوع" هي سبب لمشاكل نفسية ، ونفترض كذلك أن الروبوت يمكنه فعل ذلك ، إذن نعم ، سيعاني الروبوت من مشاكل نفسية بحكم التعريف (هل هناك دليل مباشر يشير إلى أن هذه أسباب؟)


الدكتور جيف هانكوك هو المدير المؤسس لمختبر ستانفورد للوسائط الاجتماعية وأستاذ في قسم الاتصالات بجامعة ستانفورد. يعمل هانكوك على فهم العمليات النفسية والشخصية في وسائل التواصل الاجتماعي. يتخصص فريق بحثه في استخدام اللسانيات الحاسوبية والتجارب لفهم كيف يمكن للكلمات التي نستخدمها أن تكشف عن الديناميكيات النفسية والاجتماعية ، مثل الخداع والثقة والحميمية والدعم الاجتماعي. يشتهر Hancock بأبحاثه حول كيفية استخدام الناس للخداع باستخدام التكنولوجيا من إرسال النصوص ورسائل البريد الإلكتروني إلى اكتشاف المراجعات المزيفة عبر الإنترنت.


يساعد مفهوم في علم النفس الذكاء الاصطناعي على التنقل بشكل أفضل في عالمنا

المفهوم: عندما ننظر إلى كرسي ، بغض النظر عن شكله ولونه ، نعلم أنه يمكننا الجلوس عليه. عندما تكون السمكة في الماء ، بغض النظر عن موقعها ، فإنها تعلم أنها تستطيع السباحة. يُعرف هذا باسم نظرية تحمل التكاليف ، وهو مصطلح صاغه عالم النفس جيمس ج. جيبسون. تنص على أنه عندما تنظر الكائنات الذكية إلى العالم ، فإنها لا تدرك فقط الأشياء وعلاقاتها ولكن أيضًا الاحتمالات. وبعبارة أخرى ، فإن الكرسي "يتيح" إمكانية الجلوس. الماء "يتيح" إمكانية السباحة. يمكن أن تفسر النظرية جزئيًا سبب قابلية التعميم للذكاء الحيواني - غالبًا ما نعرف على الفور كيفية التعامل مع الأشياء الجديدة لأننا ندرك إمكانياتها.

الفكرة: يستخدم الباحثون في DeepMind الآن هذا المفهوم لتطوير نهج جديد للتعلم المعزز. في التعلم المعزز النموذجي ، يتعلم الوكيل من خلال التجربة والخطأ ، بدءًا من افتراض أن أي إجراء ممكن. الروبوت الذي يتعلم الانتقال من النقطة أ إلى النقطة ب ، على سبيل المثال ، سيفترض أنه يستطيع التحرك عبر الجدران أو الأثاث حتى تخبره الفشل المتكرر بخلاف ذلك. الفكرة هي أنه إذا تم تعليم الروبوت بدلاً من ذلك أولاً إمكانيات بيئته ، فإنه سيقضي على الفور على جزء كبير من التجارب الفاشلة التي سيتعين عليه إجراؤها. هذا من شأنه أن يجعل عملية التعلم أكثر كفاءة ويساعدها على التعميم عبر بيئات مختلفة.

التجارب: قام الباحثون بإعداد سيناريو افتراضي بسيط. لقد وضعوا وكيلًا افتراضيًا في بيئة ثنائية الأبعاد بجدار في المنتصف ، وجعلوا الوكيل يستكشف نطاق حركته حتى يتعلم ما ستسمح له البيئة بالقيام به - إمكانياته. ثم أعطى الباحثون العامل مجموعة من الأهداف البسيطة لتحقيقها من خلال التعلم المعزز ، مثل تحريك قدر معين إلى اليمين أو اليسار. ووجدوا أنه ، مقارنةً بالعامل الذي لم يتعلم الإمكانيات ، فقد تجنب أي تحركات من شأنها أن تتسبب في إعاقة الجدار جزئيًا من خلال حركته ، مما يجعله يحقق هدفه بشكل أكثر كفاءة.

لماذا يهم: لا يزال العمل في مراحله الأولى ، لذلك استخدم الباحثون فقط بيئة بسيطة وأهدافًا بدائية. لكن أملهم هو أن تجاربهم الأولية ستساعد في وضع أساس نظري لتوسيع نطاق الفكرة إلى إجراءات أكثر تعقيدًا. في المستقبل ، يرون أن هذا النهج يسمح للإنسان الآلي بالتقييم السريع لما إذا كان بإمكانه ، على سبيل المثال ، صب السائل في الكوب. بعد أن طور فهمًا عامًا للأشياء التي تتيح إمكانية الاحتفاظ بالسوائل وتلك التي لا تسمح بذلك ، لن تضطر إلى تفويت الكوب بشكل متكرر وسكب السائل في جميع أنحاء الطاولة لمعرفة كيفية تحقيق هدفها.


الروبوتات كمعالجين ورفاق

تظهر الروبوتات المساعدة اجتماعيًا أيضًا واعدة في توفير العلاج للأطفال المصابين بالتوحد. لقد وجدت الأبحاث أن التعامل مع روبوتات العلاج يزيد من المشاركة والانتباه والسلوكيات الجديدة (مثل تقليد الروبوت تلقائيًا) بين الأطفال المصابين بالتوحد ، كما وصف سكاسيلاتي وزملاؤه في مراجعة (المراجعة السنوية للهندسة الطبية الحيوية، المجلد. 14 ، رقم 1 ، 2012).

يقول بريزيل: "يمكن أن يكون السلوك البشري مربكًا للأطفال المصابين بالتوحد ، ومع ذلك يمكن للروبوت الاجتماعي أن يوفر نوعًا من الخبرة الاجتماعية التي يمكن التحكم فيها". "يمكنك البدء في رؤية الأطفال يظهرون هذه المهارات والقدرات الاجتماعية التي ربما لم ترهم يؤدونها من قبل مع إنسان آخر ، ومن ثم يمكن للطبيب البدء في البناء على ذلك."

يرأس Scassellati مشروعًا كبيرًا ممولًا من قبل National Science Foundation لمواصلة استكشاف العلاج الروبوتي للأطفال المصابين بالتوحد. تقضي الروبوتات شهرًا في منزل الطفل. يقومون بتحليل والتكيف مع سلوك كل طفل ، وتكييف تفاعلاتهم لتناسب قدرات الطفل وتفضيلاته وأهدافه السلوكية.

حتى الآن ، أكملت ثماني عائلات البروتوكول ورحبت ست عائلات أخرى بالآلات الاجتماعية في منازلها. على الرغم من استمرار جمع البيانات ، إلا أن سكاسيلاتي متفائل. يقول: "حسب القصص المتناقلة ، العائلات تحبهم. هؤلاء الأطفال يقومون بساعات من العلاج يوميًا ، والروبوت يجعل العلاج ممتعًا". "أخبرتنا إحدى الأمهات أنها تعلمت طرقًا جديدة للقيام بالأشياء بفضل الروبوت ، وأنها تخطط لمواصلة فعلها بهذه الطريقة. كان ذلك رائعًا بالنسبة لنا."

في الطرف الآخر من العمر ، يستخدم كبار السن الروبوتات من أجل الراحة والرفقة. يقوم ختم القيثارة الآلي بارو بهز زعانفه ، ويعرض مجموعة متنوعة من المشاعر ويستجيب لمسة المستخدم وصوته. وجدت دراسة تجريبية أجرتها Wendy Moyle ، الحاصلة على درجة الدكتوراه ، RN ، وزملاؤها أن كبار السن المصابين بالخرف والذين يقضون وقتًا مع بارو بانتظام يتمتعون بمستويات أعلى من المتعة ونوعية حياة أفضل من أقرانهم الذين شاركوا في تدخل القراءة (مجلة تمريض الشيخوخة، المجلد. 39 ، رقم 5 ، 2013).

قد تكون الأختام مجرد البداية. يتوقع Breazeal أن المزيد من الروبوتات الشبيهة بالبشر قد توفر ذات يوم الرفقة لكبار السن. "رعاية المسنين هي مجال كبير من الفرص ، والوحدة المزمنة هي وباء في مجتمعنا. أعتقد أن التكنولوجيا ستكون جزءًا من الحل."

في العام الماضي ، أصدرت شركة Breazeal head ، تسمى Jibo ، روبوتًا على سطح المكتب يحمل نفس الاسم يمكنه سرد النكات والقصص وممارسة الألعاب والتفاعل بطريقة أخرى مع الأشخاص من حوله. يستخدم الروبوت التعرف على الوجه والصوت للتعرف على كل فرد من أفراد الأسرة ، وتكييف تفاعلاته مع كل فرد. "تم تصميم Jibo للتفاعل والتعبير عن حالاتها الداخلية ، مثل ما يعجبه وما يكرهه" ، كما تقول. "إنها البداية الأولى لإخراج هذه التقنيات إلى العالم ، لكنها تفتح الطريق أمام الروبوتات الذكية اجتماعيًا."

تستضيف APA التكنولوجيا والعقل والمجتمع، وهو مؤتمر متعدد التخصصات يستكشف التفاعلات بين البشر والتكنولوجيا ، في الفترة من 5 إلى 7 أبريل ، في واشنطن العاصمة لمزيد من المعلومات أو للتسجيل ، تفضل بزيارة https://pages.apa.org/tms.

قراءة إضافية

ما نوع العقل الذي أريده في الروبوت الخاص بي؟ تطوير مقياس للقدرات العقلية المرغوبة في الروبوتات الاجتماعية
Malle ، B.F. ، & amp Magar ، S. وقائع رفيق المؤتمر الدولي ACM / IEEE لعام 2017 حول التفاعل بين الإنسان والروبوت, 2017

الأحكام الأخلاقية لعملاء البشر مقابل الروبوتات
Voiklis، J.، Boyoung، K.، Cusimano، C.، & amp Malle، B. وقائع ندوة IEEE الدولية حول الروبوت والتواصل التفاعلي البشري, 2016


هل ستشعر بالغيرة إذا حصل شريكك على روبوت جنسي؟

يُسألون كثيرًا عن مستقبل الجنس ، وأحد الموضوعات التي غالبًا ما تطرح هو كيف ستغير الروبوتات حياتنا وعلاقاتنا الحميمة. من المسلم به أنه لا يوجد الكثير من الأبحاث حول هذا الموضوع حتى الآن لأن الروبوتات الجنسية لا تزال في مهدها ، لذلك من الصعب تقديم تنبؤات ملموسة. ومع ذلك ، كان هناك بعض الأعمال التي تبحث في مواقف الناس تجاه الروبوتات الجنسية وتشير النتائج إلى أن العديد من الأشخاص ليسوا متحمسين لفكرة الروبوتات الجنسية - وعلى وجه الخصوص فكرة استخدام شركائهم لروبوتات جنسية.

في دراسة حديثة ، قام الباحثون باستطلاع آراء 277 بالغًا (متوسط ​​أعمارهم 27 90٪ منهم من جنسين مختلفين) حول مواقفهم تجاه الروبوتات الجنسية المستقبلية. استخدموا تصميمًا تجريبيًا سُئل فيه نصف المشاركين عن "روبوت جنسي" "يبدو ويشعر تمامًا مثل البشر" ، في حين سُئل الآخرون عن "روبوت الحب الأفلاطوني" بدون جسم مادي قادر على توفير "علاقة رومانسية وودية ذات مغزى مع الإنسان."

ثم سُئلوا عن شعورهم حيال فكرة امتلاك شريكهم لمثل هذا الروبوت ، وكذلك كيف يعتقدون أن شريكهم سيشعر إذا كان الحذاء على القدم الأخرى (أي ، هل سيكون شريكك رائعًا بامتلاكك لأحد هذه الأشياء؟ الروبوتات؟)

بشكل عام ، اعتقد المشاركون أن فكرة كلا الروبوتين بدت واقعية ، بينما كان هناك قدر كبير من التباين في مشاعر الناس ، كانت المواقف تجاه كلا الروبوتين سلبية بشكل عام.

بشكل عام ، أبلغ الرجال عن مواقف إيجابية تجاه الروبوتات أكثر من النساء ، لكن هذا كان صحيحًا بشكل أساسي بالنسبة للروبوت الجنسي. عند النظر إلى روبوت الحب الأفلاطوني ، كانت مواقف الرجال والنساء متشابهة إلى حد ما.

بغض النظر عن نوع الروبوت ، يتوقع الرجال أن يشعروا بغيرة أقل إذا حصل شريكهم على واحدة مقارنة بالنساء. كما أبلغت النساء عن مشاعر غيرة أعلى من الروبوت الجنسي مقارنة بإنسان الحب ، وهو ما يتعارض مع ما توقع الباحثون اكتشافه (وجدت بعض أبحاث الغيرة السابقة أن النساء أبلغن عن عاطفية أكثر من الغيرة الجنسية ، وهو ما كان أساسًا لهن. تنبؤ).

عند التفكير في امتلاك شريكهم للروبوت ، أبلغ الرجال عن مستويات مماثلة من الكراهية لكل من الجنس وروبوت الحب على النقيض من ذلك ، أبلغت النساء عن كراهية لشريكهن باستخدام روبوت جنسي أكثر من روبوت الحب.

أخيرًا ، عند التفكير في كيفية استجابة شريكك إذا كنت تمتلك روبوتًا جنسيًا ، توقع الرجال مستويات مماثلة من الكراهية من شركائهم لكلا النوعين من الروبوتات ، في حين توقعت النساء أن يكره الشريك أكثر إذا استخدمن روبوتًا جنسيًا أكثر من روبوت الحب.

بالطبع ، هذه النتائج محدودة لأنها تستند إلى شعور الناس تجاه الجنس الافتراضي / روبوتات الحب. معظم الناس ليس لديهم أي خبرة شخصية مع هذه التكنولوجيا حتى الآن. أيضًا ، قد يكون لدى الأشخاص أفكار حول شعورهم تجاه الروبوتات التي يتم تشكيلها من خلال صور وسائل الإعلام الشائعة ، حيث يكون من الشائع رؤية الروبوتات الجنسية للإناث بدلاً من الذكور وحيث يؤدي استخدام هذه الروبوتات غالبًا إلى كارثة (انظر على الإطلاق آلة السابقين أو Westworld?)

ومع ذلك ، تشير هذه النتائج إلى اختلافات مهمة في شعور الناس تجاه الروبوتات بناءً على نوع الروبوت (الجنس مقابل الحب) وجنس الفرد. يقترحون أيضًا أن الروبوتات قد تصبح في النهاية مصدرًا محتملاً للصراع في العلاقات إلى الحد الذي يكون لدى الشركاء مشاعر مختلفة تجاههم. وربما يكون هذا الصراع أكثر وضوحًا في العلاقات المختلطة (ذكر / أنثى) بسبب الاختلافات في مواقف الرجال والنساء ، ولكن بدرجة أقل في العلاقات المثلية (حيث قد تكون مواقف الشركاء أكثر انسجامًا مع بعضهم البعض).

هناك خط استفسار مثير للاهتمام للبحث في المستقبل يتمثل في طرح أسئلة حول شعور الناس حيال استخدام روبوتات الجنس / الحب مع شريك ، على عكس شريك واحد فقط يستخدمها. عندما يتم تأطير الروبوتات كبديل أو بديل لشريك الحياة الواقعية ، فقد يثير ذلك المزيد من المواقف السلبية والغيرة. ولكن ماذا عن الوقت الذي تصبح فيه الروبوتات مكملاً للحياة الجنسية للزوجين ، وتقدم طريقة جديدة للشركاء للتفاعل معًا؟ على سبيل المثال ، هل الأشخاص في العلاقات أكثر انفتاحًا على فكرة المجموعات الروبوتية بدلاً من استخدام الروبوت الفردي؟

أيضًا ، ماذا لو تم تأطير روبوتات الجنس / الحب كطريقة لإصلاح مشكلة جنسية أو علاقة؟ على سبيل المثال ، إذا أراد شريكان مقادير مختلفة تمامًا من الجنس ، فهل يمكن أن يكون الروبوت الجنسي حلاً قابلاً للتطبيق لهذه المشكلة ويحتمل أن يقلل الصراع ويمنع الخيانة الزوجية؟ أو ماذا عن استخدام روبوتات الجنس / الحب في العلاقات بعيدة المدى حيث يرى الشركاء بعضهم البعض بشكل نادر جدًا كطريقة لتوفير اتصال جنسي وحميم أكثر؟

فما رأيك؟ ما هو شعورك حيال فكرة استخدام الجنس مقابل روبوت الحب بنفسك؟ وكيف ستشعر إذا استخدم شريكك واحدة؟

تريد معرفة المزيد عن الجنس وعلم النفس؟ انقر هنا للمزيد من المدونة أو هنا للاستماع إلى البودكاست. يتبع الجنس وعلم النفس تشغيل موقع التواصل الاجتماعي الفيسبوك، تويتر (تضمين التغريدة)، أو رديت لتلقي التحديثات. يمكنك أيضًا متابعة Dr. Lehmiller على موقع يوتيوب و انستغرام.

لمعرفة المزيد حول هذا البحث ، انظر: Nordmo، M.، Næss، J. Ø.، Husøy، M.F، & amp Arnestad، M.N (2020). الأصدقاء أو العشاق أو لا شيء: يختلف الرجال والنساء في تصوراتهم عن الروبوتات الجنسية وروبوتات الحب الأفلاطونية. حدود في علم النفس, 11, 355.


مدرب علم النفس الروبوتي الإيجابي لطلاب الكلية

يعاني عدد كبير من طلاب الجامعات من مشكلات في الصحة العقلية تؤثر على نتائجهم البدنية والاجتماعية والمهنية. تم اقتراح تقنيات قابلة للتطوير مختلفة من أجل التخفيف من التأثير السلبي لاضطرابات الصحة العقلية. ومع ذلك ، فإن تقييم هذه التقنيات ، إذا تم إجراؤه على الإطلاق ، غالبًا ما يشير إلى نتائج مختلطة حول تحسين الصحة العقلية للمستخدمين. نحن بحاجة إلى فهم أفضل للعوامل التي تتوافق مع سمات المستخدم واحتياجاته مع التدخلات القائمة على التكنولوجيا لتحقيق نتائج إيجابية. في نظرية العلاج النفسي ، يعتبر التحالف العلاجي والعلاقة بين المعالج والعميل أساسًا لنجاح العلاج.

في الأعمال السابقة ، أظهرت الروبوتات الاجتماعية القدرة على بناء علاقة وتحالف عامل مع المستخدمين في بيئات مختلفة. في هذا العمل ، نستكشف استخدام مدرب الروبوت الاجتماعي لتقديم تدخلات نفسية إيجابية لطلاب الجامعات الذين يعيشون في مهاجع داخل الحرم الجامعي. قمنا بتوظيف 35 طالبًا جامعيًا للمشاركة في دراستنا ونشرنا مدربًا للروبوتات الاجتماعية في thei & hellip عرض الوصف الكامل

يعاني عدد كبير من طلاب الجامعات من مشكلات في الصحة العقلية تؤثر على نتائجهم البدنية والاجتماعية والمهنية. تم اقتراح تقنيات قابلة للتطوير مختلفة من أجل التخفيف من التأثير السلبي لاضطرابات الصحة العقلية. ومع ذلك ، فإن تقييم هذه التقنيات ، إذا تم إجراؤه على الإطلاق ، غالبًا ما يشير إلى نتائج مختلطة حول تحسين الصحة العقلية للمستخدمين. نحن بحاجة إلى فهم أفضل للعوامل التي تتوافق مع سمات المستخدم واحتياجاته مع التدخلات القائمة على التكنولوجيا لتحقيق نتائج إيجابية. في نظرية العلاج النفسي ، يعتبر التحالف العلاجي والعلاقة بين المعالج والعميل أساسًا لنجاح العلاج.

في الأعمال السابقة ، أظهرت الروبوتات الاجتماعية القدرة على بناء علاقة وتحالف عامل مع المستخدمين في بيئات مختلفة. في هذا العمل ، نستكشف استخدام مدرب الروبوت الاجتماعي لتقديم تدخلات نفسية إيجابية لطلاب الجامعات الذين يعيشون في مهاجع داخل الحرم الجامعي. قمنا بتوظيف 35 طالبًا جامعيًا للمشاركة في دراستنا ونشرنا مدربًا للروبوتات الاجتماعية في غرفتهم. قدم الروبوت جلسات علم نفس إيجابية يومية من بين مهارات أخرى مفيدة مثل تقديم توقعات الطقس ، وجدولة التذكيرات ، وما إلى ذلك. وجدنا تحسنًا كبيرًا من الناحية الإحصائية في الرفاهية النفسية للمشاركين ، والمزاج ، والاستعداد لتغيير السلوك لتحسين الرفاهية بعد الانتهاء من الدراسة. علاوة على ذلك ، وجد أن سمات شخصية الطلاب لها علاقة كبيرة بفاعلية التدخل. كشف تحليل مقابلة ما بعد الدراسة عن تقدير الطلاب لرفقة الروبوت ومخاوفهم بشأن الخصوصية.

بالمقارنة مع الأدوات التكنولوجية الصحية الموجهة نحو المهام ، يتمتع الإنسان الآلي الاجتماعي بفرص فريدة لبناء تحالف علاجي مع مستخدميه والاستفادة من هذه العلاقة لزيادة فعالية التدخلات التي يوفرها.


مناقشة

من خلال الاقتراحات والمشكلات التي طرحتها كائنات البحث ، يتبين أن نقص الموارد التعليمية ونقص المعلمين وعدم كفاية مراعاة التفاصيل في تصميم التدريس وطرق التدريس سيخلق خسائر معينة من حيث تجربة التعلم. وعملية التعلم وحتى نتائج التعلم. لذلك ، يجب أن يولي فريق التدريس اهتمامًا كافيًا لهذه النقطة وأن يفهم تمامًا جميع جوانب تصميم التدريس في أنشطة التدريس والتعلم المستقبلية. بالطبع ، وجود المشاكل هو أفضل دافع لتطوير الذات ، والاقتراحات التي يقدمها الطلاب هي أثمن ثروة لتحسين التدريس. بينما يُطلب من المتعلمين أن يكبروا ، يحتاج المعلمون أيضًا إلى التطوير المستمر لتحقيق النمو المشترك لكل من المعلمين والطلاب في نهاية المطاف. التوقع الذي يعبر عنه المتعلمون هو أكبر تأكيد لفريق التدريس. لقد تعلموا شيئًا ما خلال الدورة التجريبية ويتوقعون أن تتاح لهم المزيد من الفرص للتعلم في المستقبل. هذا يدل على أن مساهمة فريق التدريس & # x00027s ذات قيمة ، وفريق التدريس مليء أيضًا بشعور بالإنجاز بحيث يكون لدى فريق التدريس شغف أكبر لمواصلة تحسين تصميم التدريس ويمكن للطلاب اكتساب المزيد من المعرفة والمهارات.

يمكن تلخيص الجوانب الأربعة في ثلاث نقاط. أولاً ، تعطي كائنات البحث تقييمًا إيجابيًا لأنشطة التعليم والتعلم بأكملها. في يوميات التفكير ، يصف المتعلمون بوضوح محتوى التدريس والمهام التجريبية ، ويشاركون بنشاط في أنشطة التدريس والتعلم ، ويتعرفون على تصميم التدريس وتنفيذ التدريس لفريق التدريس. ثانيًا ، اكتسب موضوع الدراسة شيئًا وتعلمه. خلال الدورة ، لا يُثري المتعلمون نظام المعرفة والبنية المعرفية فحسب ، بل يحصلون أيضًا على الإلهام من الحياة اليومية ويزرعون تفكيرهم الإبداعي. في الوقت نفسه ، فقد صقل الوعي الإبداعي ، وحسن القدرة العملية ، وعزز الشعور بالعمل الجماعي. ثالثاً: في ضوء أوجه القصور في العملية التعليمية ، تم طرح بعض الاقتراحات البناءة. يمكن أن تحث هذه الاقتراحات فريق التدريس على تصميم التدريس بعناية أكبر ، وتوفير موارد تعليمية عالية الجودة ، وتحسين أساليب التدريس والتعلم باستمرار من أجل تعزيز التعلم الهادف للمتعلمين.


مقالة رأي

  • وحدة البحث في نظرية العقل ، قسم علم النفس ، الجامعة الكاثوليكية للقلب المقدس ، ميلانو ، إيطاليا

دفع وباء فيروس كورونا 2019 (COVID-19) إلى إجراء الكثير من الأبحاث حول الاستخدام المحتمل للروبوتات في مجالات مختلفة من التدخل. يرتبط أحدها بنشر الروبوتات الاجتماعية للتعامل مع الاحتياجات المختلفة التي تثيرها حالة الطوارئ وتعتمد عليها. وفقًا لمقال نُشر مؤخرًا في علم (Yang et al.، 2020، p. 1) & # x0201Cs يمكن نشر الروبوتات الاجتماعية لتوفير تفاعلات اجتماعية مستمرة والالتزام بأنظمة العلاج بدون يخاف من انتشار المرض. & # x0201D في هذا السياق ، فإن العزلة الاجتماعية والحجر الصحي & # x02014 يطولان في كثير من الأحيان بشكل كبير بسبب مدة الإصابة & # x02014 قد يكون لهما تأثير سلبي معقول على الرفاهية وربما الصحة العقلية ، التي كان خطرها أكثر احتمالا إذا كان كان الضعف النفسي السابق موجودًا. إذا تم استخدام الروبوتات تاريخيًا في مهام خطيرة ومحفوفة بالمخاطر ، في الوقت الحالي ، فإن بعض المجالات الواعدة للروبوتات & # x00027 تشمل أيضًا إعادة التأهيل والرعاية والتدخل التعليمي والعيادة. نشهد تحولًا من مفهوم & # x0201Crobot كعبيد & # x0201D إلى & # x0201Crobots كرفاق وممرضات ومعلمين & # x02026 & # x0201D ، باختصار ، التصرف والتفاعل والعمل & # x0201 Marchetti وآخرون ، 2018). يانغ وآخرون. يجادل بأن الروبوتات الاجتماعية تستخدم & # x0201 الالتزام بأنظمة العلاج دون نشر الخوف & # x0201D يجب تنفيذها باتباع نماذج بشرية معقدة ، بما في ذلك الحالات العقلية مثل العواطف والمعتقدات ، بالإضافة إلى سياق وبيئة التفاعل (ص 2) . في رأينا ، إن & # x0201Cenvironment & # x0201D هي الإمكانيات المرتبطة ارتباطًا وثيقًا بالبقاء على قيد الحياة بالمعنى التطوري. يتم تمثيل & # x0201Ccontext & # x0201D من خلال الإشارات الاجتماعية والمادية والاجتماعية والمعرفية في الحياة اليومية. علاوة على ذلك ، نعتقد أن تطبيق الروبوتات الاجتماعية على أساس كل نموذج بشري ممكن لا يمكن أن يكون مجرد نتاج اندماج الهندسة ومهنيي الأمراض المعدية # x0201D (Yang et al.، 2020، p.2). سيتطلب النموذج منظورًا متعدد التخصصات يتضمن أيضًا مساهمة علماء النفس. لقد وضع الوباء الأخير في الواقع الأسس لإعادة قراءة علاقاتنا اليومية من وجهة نظر ليس فقط العلاقات الإنسانية ولكن أيضًا العوامل الأخرى ، مثل الروبوتات. في الرأي الحالي ، نقترح أن استخدام الروبوتات ليس فقط مسألة تقنية بحتة ولكن أيضًا مدعومًا بتغييرات مهمة في الطريقة التي ننظر بها إلى العلاقات ، خاصة مع أولئك المقربين منا. مع وضع هذا الهدف في الاعتبار ، ركزنا على تحديد بعض المكونات النفسية الأكثر عرضة للتغيير بسبب الوضع العالمي الحالي. لنأخذ & # x00027s ، على سبيل المثال ، مشاعر الخوف المذكورة أعلاه. من المحتمل أن يأخذ الخوف (إن لم يكن موجودًا بالفعل) شكلاً مختلفًا بسبب الفيروس. الخوف هو عاطفة أساسية (إيكمان وفريزين ، 1971) وعاطفة تكيفية تم تطويرها من خلال التطور لتمكين التعامل مع الخطر وضمان البقاء على قيد الحياة. المفترسات والملوثات والغزاة هم أعداء يحتمل أن يكونوا خطرين وكلهم متغيرات محفوفة بالمخاطر تعمل العلاقات الوثيقة تجاهها عادة كعوامل وقائية. في حالة الخوف ، يتم تمثيل الخيارات الخاصة بالفرد من خلال ما يسمى بسلوكيات & # x0201Cfight أو flight & # x0201D. على المستوى العلائقي ، هو البحث عن قاعدة آمنة (Bowlby ، 1988) ، حيث يمكن العثور على مكان للطمأنينة والتزويد العاطفي. يستمر هذا الاتجاه أيضًا في مرحلة البلوغ بسبب انتقال أنماط التعلق عبر الأجيال.

ومع ذلك ، واجهنا وباء COVID-19 سيناريو حيث & # x0201Cfear ليس له وجه. & # x0201D الآن ، يشمل أيضًا شركاء علاقة وثيقة ، أي الأشخاص الذين يحتمل أن يكونوا مصادر أو متلقين للرعاية. يتناقض هذا بشكل عميق مع سلسلة من الإنجازات التنموية الأساسية التي تجعل القرب المادي النموذج الأولي المتجسد للقرب النفسي. يتخذ الفرد مسارًا يكون فيه & # x0201Cknown Social Other & # x0201D / & # x0201Cunknown social other & # x0201D dichotomy بمثابة منظم للمعتقدات والمواقف ، وبالتالي يساهم في بناء الذات ككيان منفصل ومنفصل عن الآخر . من وجهة نظر حسية عصبية ، فإن الطفل البشري مهيأ للتعرف وتوجيه نفسه / بنفسه بثقة نحو الشخصيات الأساسية للرعاية والحماية ، وعلى هذا الأساس بالتحديد تُبنى الثقة في الآخرين وفي أنفسنا (Di Dio et al.، 2019، 2020a، b Manzi et al.، 2020a، b). يظهر ما يسمى بـ & # x0201Canguish of the stranger & # x0201D (Spitz ، 1945 Schaffer ، 1966) في حوالي 8 أشهر من العمر. إنه يمثل التمييز بين مقدمي الرعاية وجميع الآخرين: قبل أن يصبح الطفل عاملًا محايدًا سيلاحظه الطفل ويعرفه ، & # x0201Cother & # x0201D في حد ذاته يُنظر إليه على أنه أمر مخيف (بمعنى آخر يستحق الخوف). يبدو أن هذه الخطوة تتماشى مع سلوك الطفل الأكبر سناً & # x00027s الذي لوحظ في الموقف الغريب (نموذج يهدف إلى تقييم التعلق Ainsworth et al. ، 1978): استجابة الضيق والخوف تجاه الشخص الغريب ، الذي يكون أكثر قبولًا بشكل عام إذا الأم في وجود الطفل & # x00027s ، وردود الفعل تجاه من يتم توقعها من خلال أمان ارتباط الطفل بالأم. في وقت لاحق من الحياة ، يمكن للطفل النامي إنشاء روابط ارتباط مع أشخاص آخرين في سياقات حياته: الأصدقاء وزملاء المدرسة وأقارب الأسرة الممتدة والمعلمين والمعلمين في سياقات مختلفة ، من المدرسة إلى الأنشطة الرياضية (Pianta ، 1999). بينما يفترض المنظور النظري للمرفقات المتعددة أن اتساع & # x0201Cknown اجتماعيًا آخر & # x0201D يتسم بالتمييز بين الأدوار الوظيفية التي تلعبها العلاقات المتعددة ، إلا أنه يحافظ على القدرة التنموية الأساسية لتحديد الآخر باعتباره & # x0201Csecure -الشريك الاجتماعي الآمن ، & # x0201D تميزه عن & # x0201Crisky-الشريك الاجتماعي غير الآمن. & # x0201D إمكانية إنشاء مرفقات متعددة تمنع سلسلة من المخاطر التنموية وتعمل كمحسّن لعلاقات الارتباط الأولية الإيجابية وباعتبارها عامل وقائي غير مباشر في ظروف الهشاشة الوجدانية العلائقية. إلى جانب ذلك ، لا يقتصر الأمر على العلاقات الآمنة مع شخصيات متعددة & # x02014 مع المعلم ، فقط لإعطاء مثال & # x02014 مرتبطة بالرفاهية الشخصية داخل المجال العاطفي ، ولكن أيضًا مع الأداء المعرفي في المدرسة ، وكذلك مع المؤشرات الاجتماعية المعرفية مثل مناخ المدرسة ، وقبول الأقران ، وما إلى ذلك. من أجل ممارسة دور وقائي معزز ، يجب أن يُنظر إلى كل هؤلاء & # x0201Cothers & # x0201D (المعلمين والمعلمين والأقارب) على أنهم & # x0201Cbesides لي. & # x0201D الحس المادي لـ & # x0201Cbesides & # x0201D & # x02014 المعنى الحرفي & # x02014 يتوقع في التطور ، ويستمر في دعمه في مدى الحياة ، المعنى المجازي للتجربة الإنسانية للتقارب النفسي والقرب. وهو بالضبط استحالة الحصول على الفرص التي توفرها المعاني المختلفة لـ & # x0201Cbesideness & # x0201D (القرب المادي والأمن / الأمان) هو المسؤول عن تآكل الشعور بالحماية من الخوف في سياقات الروابط العاطفية . على الرغم من أن التكنولوجيا تسمح لنا بالتواصل حتى عند الفصل جسديًا ، إلا أن الشعور بالوحدة والعزلة اللذين تم الإبلاغ عنهما إلى حد كبير خلال COVID-19 قد يعتمدان على كل من عدم القدرة التكنولوجية على تجسيد العلاقات العاطفية وربما أيضًا على الوعي الضمني إلى حد ما بأنه & # x0201C الآخر الاجتماعي المعروف & # x0201D (أيضًا مقدم الرعاية الخاص بي ، وابنة الابن والمعلم وصديقة / صديقها والمعلم والمعلم) قد يكون خطيرًا بالنسبة لي. وبالتالي ، فإن المزاج السائد للعلاقات الوثيقة لم يعد هو الشعور بالأمان ، بل هو شعور واسع الانتشار بالخوف الغامض (علاوة على ذلك ، إذا فكر الناس في إمكانية أن يكونوا عاملًا نشطًا للعدوى لأحبائهم ، فيجب أن تكون المشاعر الأساسية للخوف. تضاف إلى المشاعر المعقدة للشعور بالذنب الغامض المحتمل). لذا ، إذا كانت ديناميكيات المجموعة / خارج المجموعة & # x02014up إلى المواقف تجاه & # x0201Cstranger & # x0201D بالمعنى الجغرافي والسياسي (Antonietti and Marchetti، 2020) & # x02014 هي نتيجة هذا التعبير الأساسي وفقًا لما & # x0201Cknown-مألوف & # x0201D يساوي موثوقًا و & # x0201Cunknown-غير مألوف & # x0201D يساوي خطرًا محتملًا (الخطر الذي & # x02014 وراثيًا وجينيًا & # x02014the & # x0201Cknown - مألوف & # x0201D هو المسؤول عن حمايتنا) ، تأثير الغموض من العواطف ، وخاصة الخوف على الصحة العقلية في المواقف العصيبة مثل تلك التي يمثلها وباء COVID-19 ، يمكن تخيلها بسهولة. في الواقع ، يشير وباء COVID-19 إلى إمكانية العدوى العشوائية من قبل أي شخص ، بما في ذلك الأقرب إلينا بالمعنى النفسي. لهذا السبب ، فإنه يقوض الديناميكيات الموضحة أعلاه من خلال إثارة شكل غير مسبوق من الخوف ، حيث تقع الحدود بين الأمان والمخاطر. في حالة الإصابة ، من الضروري الالتزام بقاعدة التباعد الاجتماعي العشوائي عن الجميع. الأمر نفسه ينطبق إذا أصيب أحد الأقارب. إن عمل الرحمة & # x0201C زيارة المريض & # x0201D لا يمكن إنجازه ، كما أنه من المستحيل مد الوداع النهائي لمن تركنا إلى الأبد. باختصار ، لقد غيّر COVID-19 تمامًا ملامح الأمن / الثقة / الخطر / المخاطرة والخوف ، مما أدى فجأة إلى تدمير الرابطة التي استغرق التطور والتطور الجيني وقتًا طويلاً لبنائها. إن مشاعر الإهمال إن لم يكن التخلي عن الأحباء ، أو الإهمال إذا لم يتخلوا عنها لضمان الأغراض الوقائية للتباعد الاجتماعي ، ليس من السهل إدارتها من وجهة نظر نفسية تجربة العزلة ، والوحدة ، والعزلة. يصعب تفسير القلق من النسيان وجعله مفهومًا للأطفال وكذلك كبار السن. وهذا يعني أن تآكل أسس التمييز بين & # x0201Cknown - مألوف - آمن / غير معروف - غريب - غير آمن & # x0201D يمكن أن يختلف وفقًا لمراحل تطور الفرد وكذلك حالة الخبراء / المبتدئين. فيما يتعلق بمراحل النمو ، فإن الموارد المعرفية والاجتماعية والعاطفية النموذجية لأعمار معينة تسمح للأطفال باستيعاب وتفصيل معلومات مختلفة حول الفيروس وآثاره ومخاطر القرب من الأشخاص المحبوبين. من ناحية أخرى ، إذا تم النظر إليها من منظور وضع الخبير / المبتدئ ، والذي يرتبط جزئيًا بمراحل التطوير ، فإن الحصول على معلومات موثوقة أو معرفة علمية حقيقية حول انتشار الفيروس يمكن أن يساعد في إدارة تأثير الشكل الجديد بشكل أفضل الخوف المبهم. بالعودة إلى الدور الذي تلعبه الروبوتات في الإطار النفسي الموضح بإيجاز هنا ، قد يتغير استخدام الروبوتات اعتمادًا على سلسلة من العوامل التي قد تساعد مساهمة علماء النفس فقط في إبرازها. بادئ ذي بدء ، تتغير & # x0201Clike me ، & # x0201D التي تمثل أساس قبول / رفض الروبوتات الاجتماعية ، مع تقدم العمر. مثل شعور الناس و # x00027s (لإعادة صياغة Legerstee ، 2005) ، يعتمد أيضًا إحساس الأشخاص # x00027s للروبوتات الاجتماعية على تطوير ، بالإضافة إلى الأهداف والسياقات ، للروبوتات & # x00027 استخدام (Marchetti et al.، 2018 ). لهذه الأسباب ، من الأساسي أن يتم نشر تصميم الروبوتات الاجتماعية في حالات & # x0201Cfuzzy الخوف & # x0201D مثل ذلك الذي نشهده ليس فقط لأغراض المساعدة أو الرفقة أو التدريس المرتبط بالنظم الطبية ولكن أيضًا takes the real role of �r-free” mediators of affective functions. In this way, robots do not become substitutes for close relationship partners from whom social distancing separates us, but act as relational bridges between those who are separated for health and safety reasons. As an effect of this rethinking the functions of social robots in emergency situations, some current negative attitudes toward social robots𠅏rom resistance and ambivalence up to the uncanny valley phenomenon (Mori, 1970 MacDorman and Ishiguro, 2006)𠅌ould significantly change. To pursue the goal of designing useful social robots for the psychological needs described here (i.e., coping with fuzzy fear and taking advantage of robots as affective mediators), a deep, psychologically driven afterthought will be needed around three basic axes of reflection. The first two axes are more general. The first one regards the psychological understanding of people involved in human–robot interactions during a sanitary emergency in terms of level of development, socio-demographic characteristics, and previous experience with social robots (see the experts/novices distinction above). Expectations and attitudes toward social robots may in fact change according to both development and expertise. The second axis regards the construction of social robots that are able not only to take into account the needs of their human partners but also to relate with the human agent in an understandable way. This represents an extremely important feature that every human would expect from the interactive experience. The literature on robotics calls it “transparency”/𠇎xplainability” (Holzinger et al., 2019), which would correspond to the experience of the Theory of Mind (Perner, 1991 Wellman et al., 2001) in the domain of human–human interaction. The third axis of reflection relates to a goal that we hope to achieve in a not too distant future. Specifically, it concerns the identification of the best way to devise social robots that are able to sensitively manage and respond to the behavior of a human partner with a possible acute temporary breakdown in the ability to scaffold the sense of emotional security—like some of us during this COVID-19 emergency—that is the very basis of Self construction.

The theoretical reflections discussed in this Opinion reread therefore the question of fear in the light of a danger that poses new questions and that, as is suggested, leads to rethinking particular psychological and social dynamics. In reading the new relational dynamics hypothesized in the present work, from which the robot is spared, COVID-19 pandemics added novelty to the physiognomy of fear, which (unlike anxiety) is an emotion linked to objects and situational antecedents, and which may therefore be affected by the nature of its objects at the level of subjective experiences, behavioral reactions, as well as coping strategies. These theoretical suggestions may enrich knowledge from an interdisciplinary perspective, such as robotics and psychology, providing important starting points for future research by emphasizing which psychological components should be investigated in people interacting with robots. An example is the perception of in-group/out-group, as well as the components of fear that, in our opinion, are mitigated toward robots in the specific COVID-19 situation, which forces us to adapt to the inclusion of new social agents devoted to care assistance.


Could a Rising Robot Workforce Make Humans Less Prejudiced?

Jackson, J., Castelo, N. & Gray, K. (2019).
American Psychologist. (2019)

Automation is becoming ever more prevalent, with robot workers replacing many human employees. Many perspectives have examined the economic impact of a robot workforce, but here we consider its social impact: how will the rise of robot workers affect intergroup relations? Whereas some past research suggests that more robots will lead to more intergroup prejudice, we suggest that robots could also reduce prejudice by highlighting commonalities between all humans. As robot workers become more salient, intergroup differences—including racial and religious differences—may seem less important, fostering a perception of a common human identity (i.e., “panhumanism.”) Six studies (∑N= 3,312) support this hypothesis. Anxiety about the rising robot workforce predicts less anxiety about human out-groups (Study 1) and priming the salience of a robot workforce reduces prejudice towards out-groups (Study 2), makes people more accepting of out-group members as leaders and family members (Study 3), and increases wage equality across in-group and out-group members in an economic simulation (Study 4). This effect is mediated by panhumanism (Studies 5-6), suggesting that the perception of a common human in-group explains why robot salience reduces prejudice. We discuss why automation may sometimes exacerbate intergroup tensions and other-times reduce them.

From the General Discussion

An open question remains about when automation helps versus harms intergroup relations. Our evidence is optimistic, showing that robot workers can increase solidarity between human groups. Yet other studies are pessimistic, showing that reminders of rising automation can increase people’s perceived material insecurity, leading them to feel more threatened by immigrants and foreign workers (Im et al., in press Frey, Berger, & Chen, 2017), and data that we gathered across 37 nations—summarized in our supplemental materials—suggest that the countries that have automated the fastest over the last 42 years have also increased more in explicit prejudice towards out-groups, an effect that is partially explained by rising unemployment rates.


Recent studies have suggested artificial intelligence can develop sexist and racist tendencies

“There have to be some things that are respected, like the autonomy of people and their privacy,” says Delvaux.

This perhaps also highlights another issue troubling many dealing with artificial intelligence – the problem of bias. Machine learning systems are only as good as the data they are given to learn on, and recent studies have suggested artificial intelligence can develop sexist and racist tendencies.

Delvaux also points to the people who are writing the algorithms in the first place. The majority of people working in the technology industry are white males, with men making up between 70% and 90% of the employees at some of the biggest and most influential companies.

Silicon Valley has been rocked over the past couple of years with scandals about sex discrimination. It has raised fears that robots and machines could display similar discriminatory behaviour.

“It is a very thin slice of the population currently designing our technologies,” warns Judy Wajcman, a professor of sociology at the London School of Economics. “Technology needs to reflect society, so there needs to be a shift in the design and innovation process.”

Meanwhile, Bill Gates recently suggested yet another ethical red flag: that robots themselves may have to be taxed to make up for lost levies on income from employees. Others have suggested as robots take on more tasks, there could be a growing case for universal basic income, where everyone receives state benefits.

Much of this, of course, assumes that robots are actually capable of doing the jobs we set them. Despite their apparent intelligence, most robots are still pretty dumb contraptions when compared to our own capabilities.

Customers dine outside Eatsa, San Francisco's first fully automated restaurant in 2015 - food is picked up in ɼubbies,' no server, wait staff or cashier required. (Credit: Getty)

Machines have a ways to go

Like the Ikea example, AI leaves a lot of room for improvement.

Perhaps one of the greatest issues facing the machine learning and artificial intelligence community currently is understanding how their algorithms work. “Things like artificial intelligence and machine learning are still largely black boxes,” argues Manyika. “We can’t open them up to find out how they got the answer they produce.”

This presents a number of issues. Machine learning systems and modern AI are usually trained using large sets of images or data that are fed in to allow them to recognise patterns and trends. They can then use this to spot similar patterns when they are given new data.

This might be fine if we want to find CT scans that show signs of disease, for example, but if we use a similar system to identify a suspect from a fragment of CCTV footage, knowing how it did this may be crucial when presenting the evidence to a jury.

Even in the field of autonomous vehicles, this ability to generalise remains a considerable challenge.

Takeo Kanade, a professor of robotics at Carnegie Mellon University, is one of the pioneers of self-driving vehicles and an expert in computer vision. He says giving robots a “genuine understanding” of the world around them is still a technical challenge that needs to be overcome.

“It is not just about identifying where objects are,” he explains, following a lecture at the inaugural Kyoto Prize at Oxford event, where he outlined the problems facing researchers. “The technology has to be able to understand what the world is doing around them. For example, is that person actually going to cross the road in front of them, or not?”

Hawes himself encountered a similar problem with one of his own projects that put an autonomous “trainee office manager” into several offices in the UK and Austria.

The team programmed the robot, called Betty, to trundle around the offices monitoring for clutter building up, checking whether fire doors were closed, measuring noise and counting workers at their desks outside normal hours.

“Things would appear in the environment like chairs moving, people shifting their desks or pot plants,” he says. “Dealing with that without reprogramming the whole robot is challenging.”

But even though the robot wasn’t perfect, the humans still found a way of working alongside it.

Surprisingly, those working alongside Betty actually responded to their mechanical worker in a positive way, even coming to its aid if the robot ever got stuck in a corner. “People would say hello to it in the morning and said it made the office more interesting to work in,” says Hawes.

If we can hand the tedious, repetitive bits of our jobs to machines then it could free us up to some of the things we actually enjoy. “Work has the potential to become more interesting as a result,” says Frey.

It is a tantalising thought, that just perhaps, the rise of the machines could make our jobs a lot more human.


Dr. Jeff Hancock is founding director of the Stanford Social Media Lab and a professor in the Department of Communication at Stanford University. Hancock works on understanding psychological and interpersonal processes in social media. His research team specializes in using computational linguistics and experiments to understand how the words we use can reveal psychological and social dynamics, such as deception, trust, intimacy and social support. Hancock is well known for his research on how people use deception with technology from sending texts and emails to detecting fake online reviews.


A concept in psychology is helping AI to better navigate our world

The concept: When we look at a chair, regardless of its shape and color, we know that we can sit on it. When a fish is in water, regardless of its location, it knows that it can swim. This is known as the theory of affordance, a term coined by psychologist James J. Gibson. It states that when intelligent beings look at the world they perceive not simply objects and their relationships but also their الاحتمالات. In other words, the chair “affords” the possibility of sitting. The water “affords” the possibility of swimming. The theory could explain in part why animal intelligence is so generalizable—we often immediately know how to engage with new objects because we recognize their affordances.

The idea: Researchers at DeepMind are now using this concept to develop a new approach to reinforcement learning. In typical reinforcement learning, an agent learns through trial and error, beginning with the assumption that any action is possible. A robot learning to move from point A to point B, for example, will assume that it can move through walls or furniture until repeated failures tell it otherwise. The idea is if the robot were instead first taught its environment’s affordances, it would immediately eliminate a significant fraction of the failed trials it would have to perform. This would make its learning process more efficient and help it generalize across different environments.

The experiments: The researchers set up a simple virtual scenario. They placed a virtual agent in a 2D environment with a wall down the middle and had the agent explore its range of motion until it had learned what the environment would allow it to do—its affordances. The researchers then gave the agent a set of simple objectives to achieve through reinforcement learning, such as moving a certain amount to the right or to the left. They found that, compared with an agent that hadn’t learned the affordances, it avoided any moves that would cause it to get blocked by the wall partway through its motion, setting it up to achieve its goal more efficiently.

Why it matters: The work is still in its early stages, so the researchers used only a simple environment and primitive objectives. But their hope is that their initial experiments will help lay a theoretical foundation for scaling the idea up to much more complex actions. In the future, they see this approach allowing a robot to quickly assess whether it can, say, pour liquid into a cup. Having developed a general understanding of which objects afford the possibility of holding liquid and which do not, it won’t have to repeatedly miss the cup and pour liquid all over the table to learn how to achieve its objective.


شاهد الفيديو: De WAARHEID over WARME VLOEREN! (يوليو 2022).


تعليقات:

  1. Gehard

    أعتقد أنه خطأ. أنا قادر على إثبات ذلك.

  2. Moogujind

    أنصحك بزيارة الموقع حيث توجد العديد من المقالات حول هذا الأمر.

  3. Mikarn

    أنا على دراية بهذا الموقف. يمكننا مناقشة.

  4. Herlebeorht

    من قال لك؟

  5. Colbey

    غريب لبعض منتجات الاتصالات ..



اكتب رسالة