الوجه: في المشهد المستمر لتكنولوجيا مكان العمل ، دخل لاعب جديد إلى المشهد: أدوات ملاحظة AI-AI-A-AI-A-AI-A-AI-A-AI-A-AI-A-ABILE. قدم عمالقة التكنولوجيا مثل Microsoft و Google وكذلك العديد من الشركات الناشئة هؤلاء المساعدين الرقميين الذين يستمعون إلى الاجتماعات ، ونقل المحادثات وتلخيص النقاط المهمة – إلى استياء الكثيرين.
يتم ترقية طلاب الصف الذكاء الاصطناعي كقفزة كفاءة إلى الأمام وتنفيذ الحواجب ويعملون مناقشات حول آداب الآداب والخصوصية وطبيعة التواصل في مكان العمل.
هناك أيضا مخاوف مشروعة. قال جوكول راجارام ، مؤسس شركاء إدارة الماراثون في سان فرانسيسكو ، إن بلومبرج أن منظمة العفو الدولية موجودين الآن في 80 في المائة من جلساته ، وأحيانًا مع العديد من الروبوتات التي تنسخها وتلخيصها في نفس الوقت.
وقال “بالنسبة للأشخاص الذين لم يزروا الاجتماع بعد ، فهذه طريقة رائعة لفهم ما يجري”. “حتى بالنسبة لأولئك الذين هم في الاجتماع ، فإنه ينقذهم الآن من الملاحظات.”
لكن Rajaram قلق بشأن الهلوسة المحتملة KI – الحالات التي قد تولد فيها الذكاء الاصطناعى عروض أسعار غير دقيقة أو استقراء ما وراء ما قيل بالفعل. بالإضافة إلى ذلك ، يشير إلى اعتبار حاسم: “إنه ليس مجرد ملاحظات. يأخذ صوتك. “
هذه الملاحظة تدق في قلب المعضلة الأخلاقية ، التي أنشأتها روايات الذكاء الاصطناعي. كانت التكنولوجيا غير واضحة بين الحدود بين الملاحظات والتسجيل وطرح أسئلة حول الموافقة وحماية البيانات. تؤكد مارغريت ميتشل ، كبير علماء الأخلاقيات في شركة AI ، على الوجه ، تؤكد هذه النقطة: “بعض الآداب تنطبق”.
وهي تنصح بأن أي شخص يستخدم Ki -noteaker سيقوم بإبلاغ المشاركين الآخرين في الاجتماع ويسمح لهم بأن يكون مرغوبًا فيه إذا رغبت في ذلك.
ويؤكد ميتشل أيضًا التأثيرات الأوسع لهذه التكنولوجيا: “نظرًا لأننا نحاول الحصول على مزيد من الأتمتة في المهام البشرية التقليدية ، فإننا نمنح سيطرتنا وقوتنا وخصوصية أنظمة الذكاء الاصطناعي والشركات التي لديهم”.
بالإضافة إلى ذلك ، يشير إلى وجود قيود حاسمة على عدم قدرة AI Narreaucher على تفسير المعلومات غير اللفظية مثل السخرية أو النكات. على عكس الملاحظات البشرية ، فإن أنظمة الذكاء الاصطناعى هذه هي الفهم الدقيق للتفاعل البشري ، مما قد يؤدي إلى مجال منجم من التفسيرات الخاطئة وسوء الفهم.
بالإضافة إلى ذلك ، يركز معظم الضيقين من الذكاء الاصطناعي بشكل أساسي على مدخلات الصوت ، مما يعني أنهم لا يستطيعون التعرف على المعلومات البصرية مثل تعبيرات الوجه أو الإيماءات أو الموقف. كما أنهم يقاتلون مع اللهجات واللغة العامية وغيرها من ظلال اللغة التي يفسرها الناس بسهولة. ومع ذلك ، يمكن أن يتغير هذا إذا بدأت الأنظمة المتقدمة في توفير تحليل مزاج بناءً على أنماط الصوت واختيار الكلمات.
لا تزال مجموعة الطوارئ منظمة العفو الدولية جديدة بما يكفي بحيث لم يتم قبولها إلى حد كبير في دوائر الأعمال. يجد أندرو برودسكي ، أستاذ مساعدة الإدارة في جامعة تكساس في كلية ماكومبز للأعمال من قبل أوستن ، أن إدخال منظمة العفو الدولية في الاجتماعات يمكن إدراكها بشكل مختلف. قد يرى البعض أنه أداة لتركيز وسجلات أفضل ، في حين أن البعض الآخر يمكن أن يفسرها على أنها كسل أو عدم القدرة على تذكر التفاصيل المهمة.
بالنسبة للشركات التي تقوم بتطوير أدوات الذكاء الاصطناعي هذه ، هناك العديد من المزايا التي تتجاوز حصة السوق والمبيعات. يستخدمون ميلنا إلى تبني وتسجيل التقنيات الجديدة بسرعة. بالإضافة إلى ذلك ، توفر هذه الأدوات مصدرًا قيمًا لبيانات التدريب لأنظمة الذكاء الاصطناعى التي أصبحت نادرة بشكل متزايد بسبب التحديات القانونية وقيود المحتوى.
أخيرًا ، هناك خطر من أن Ki -Noteaker يمكن أن يقوض العناصر البشرية للاجتماعات – الحديث الصغير والتفاعلات التلقائية التي غالباً ما تؤدي إلى الإبداع وبناء العلاقات. إذا كان الموظفون حريصين بشكل مفرط على تسجيل كلماتهم وتحليلها من قبل الذكاء الاصطناعي ، فقد يجعل ذلك اتصالًا مفتوحًا وتوليد IDE الذي يفترض أن يسهل الملاحظات.