قامت شركة ميتا، الشركة المالكة لفيسبوك وإنستغرام وواتساب، بتطبيق الذكاء الاصطناعي في تطبيق المراسلة الفورية، مما وسّع نطاق وظائفه. استغرقت هذه التقنية، المتاحة في دول أخرى منذ أبريل 2024، وقتًا أطول قليلاً للوصول إلى البرازيل بسبب المتطلبات التي فرضتها الهيئة الوطنية لحماية البيانات (ANPD).
يعتمد الذكاء الاصطناعي في واتساب على نماذج لغوية متقدمة، مثل LLaMA (نموذج اللغة الكبير Meta AI)، المُدرَّب باستخدام كميات هائلة من البيانات النصية لفهم اللغة الطبيعية وتوليدها بفعالية. يوضح بيير دوس سانتوس، محلل الذكاء الاصطناعي في شركة Leste Telecom: "يستطيع الذكاء الاصطناعي في Meta الإجابة على الأسئلة، وتقديم التوصيات، والبحث عن أخبار حول مواضيع تهمنا على الإنترنت دون الحاجة لمغادرة التطبيق، وإنشاء صور وملفات GIF صغيرة للمشاركة".
مع ذلك، لا تزال الأداة في مرحلة تجريبية، لذا تحتوي على العديد من الأخطاء في استخدامها. سيُحسّن هذا الوضع مع مرور الوقت، وقد تُعدّل طريقة استخدام الذكاء الاصطناعي، إذ تتيح العديد من الفرص لإضافة خدمات جديدة، بما في ذلك تلك المتعلقة بإمكانية الوصول، كما أضاف.
فتاة جيدة أم شريرة؟ يعتمد الأمر على السياق.
مع كل هذا الجدل الدائر حول استخدام الذكاء الاصطناعي، والذي ثبت بالفعل أنه وراء ممارسات مثل الأخبار الكاذبة والتزييف العميق، يخشى الكثيرون من إتاحة ذكاء ميتا الاصطناعي على واتساب دون إمكانية تعطيله. ويطمئن بيير قائلاً: "أكدت ميتا أن محتوى المحادثات مع الذكاء الاصطناعي قد يُستخدم لتدريب خوارزميات الذكاء الاصطناعي، لكنها لا تربط هذا المحتوى بالمعلومات الشخصية للمستخدمين".
على الرغم من عدم الإفصاح علنًا عن كيفية استخدام البيانات لاستهداف الإعلانات، إلا أنه بعيدًا عن التركيز على تدريب الذكاء الاصطناعي، قد يؤثر استمرار استخدام الأداة على الإعلانات وتلقيها على المدى الطويل. ويمكن استخدام جمع البيانات، وهو ممارسة شائعة في سوق التكنولوجيا، لتخصيص الإعلانات، واستهداف الجمهور، والتنبؤ بالسلوك، على سبيل المثال.
"ومع ذلك، فإن توقعاتي هي أن Meta ستعطي الأولوية لخصوصية المستخدم وموافقته، باستخدام الذكاء الاصطناعي بشكل أخلاقي وشفاف بما يعود بالنفع على كل من المستخدمين والمعلنين وفقًا لتشريعاتنا"، كما يقول المحلل.
على الرغم من أن التقنية لا تستطيع الوصول إلى محادثات واتساب الخاصة، وأن بيانات المستخدم محمية بتشفير التطبيق، إلا أنه وفقًا لوثائق الذكاء الاصطناعي، يمكن استخدام الرسائل المُشاركة مع الأداة لتقديم إجابات مُناسبة لك أو لتحسين هذه التقنية. وتُحذّر الوثيقة قائلةً: "لذلك، لا تُرسل رسائل تحتوي على معلومات لا ترغب في مشاركتها مع الذكاء الاصطناعي. على الأقل، يُمكننا حذف الرسائل المُرسلة إلى الذكاء الاصطناعي بكتابة /reset-all-ais في المحادثة".
استخدمه باعتدال.
يقول بيير أيضًا إن الذكاء الاصطناعي أداة فعّالة يمكن الاستفادة منها في سياقات متنوعة. ومع ذلك، من الضروري استخدامه بمسؤولية وحرص، مع مراعاة أمن وخصوصية البيانات الشخصية دائمًا. ولهذا الغرض، يُشارك بعض النصائح الأساسية والقيّمة:
- استخدام الذكاء الاصطناعي كأداة للمساعدة، وليس كبديل للتفكير النقدي؛
- استخدم الذكاء الاصطناعي للمهام التي تعتبرها آمنة ولا تشكل خطراً على خصوصيتك، وتجنب مشاركة المعلومات الشخصية أو السرية مع الذكاء الاصطناعي في المحادثة؛
- تجنب استخدام الذكاء الاصطناعي لاتخاذ القرارات المهمة؛
- ابحث فقط عن المواضيع ذات الاهتمام العام، وتجنب المواضيع الحساسة أو المثيرة للجدل.
ويختتم الخبير قائلاً: "صحيح أنه أصبح من الصعب بشكل متزايد تحديد ما إذا كان المحتوى قد تم إنشاؤه بواسطة الذكاء الاصطناعي، ولكن هناك بعض العلامات التي يمكن أن تساعدك على الشك في شيء ما: مصدر غير معروف أو مشكوك فيه؛ محتوى جيد جدًا لدرجة يصعب تصديقه؛ نقص المعلومات حول التأليف؛ لغة اصطناعية؛ محتوى عام وغير أصلي؛ ونقص العاطفة والذاتية".

