طرح ایمنسازی اطلاعات و مقابله با کنترل الگوریتمها (چارچوب خنثی) برای مواجهه با طرح نتانیاهو

نجاح محمدعلی، روزنامهنگار محقق در امور ایران و منطقه:
🔹 مقدمه
در جهانی که الگوریتمها تعیین میکنند چه چیزی را ببینیم و بشنویم، دیگر نبرد تنها در سطح نظامی یا سیاسی خلاصه نمیشود، بلکه به کارزاری برای تسلط بر روایت دیجیتال و شکلدهی به افکار عمومی جهانی تبدیل شده است. در همین راستا، اظهارات نخستوزیر رژیم صهیونیستی بنیامین نتانیاهو بازتاب گستردهای یافت؛ جایی که او آشکارا از طرح خود برای برخورد با الگوریتمهای شبکههای اجتماعی سخن گفت و آنها را «دشمنی» دانست که باید بر آن مسلط شد.
🔹 خلاصه طرح نتانیاهو
طرح نتانیاهو ــ که پیشتر در مقالهای در پایگاه صدای سما به زبانهای عربی و فارسی بررسی شده بود (برای جزئیات کامل: https://sedayesama.ir/16791/) ــ بر محور تلاش برای رامسازی الگوریتمهای پلتفرمهای بزرگ است. این اقدام از طریق فشارهای سیاسی و حقوقی، تأمین مالی کارزارهای تبلیغاتی مخفی با استفاده از هوش مصنوعی، و همچنین بهکارگیری افراد تأثیرگذار برای انتشار روایت رژیم دنبال میشود. نتانیاهو معتقد است این الگوریتمها باعث تقویت محتوای تصویری منتشرشده از غزه و آشکار شدن جنایات تجاوز شدهاند و همین امر موجب کاهش حمایت مردمی از رژیم در غرب، بهویژه در میان نسل جوان شده است.
با وجود این فشارها، گزارشهای بینالمللی نشان دادهاند که تلاشهای رژیم برای تسلط کامل ناکام مانده است؛ کارزارهای مخفی همچون پروژه Stoic افشا شدند و پلتفرمهای بزرگ هزاران حساب جعلی وابسته به تلآویو را مسدود کردند. با این حال، خطر همچنان پابرجاست؛ زیرا نتانیاهو در پی تشدید مداخله در عرصه دیجیتال است، امری که به معنای سانسور گستردهتر و حذف صداهای منتقد خواهد بود.
این نبرد دیجیتال در واقع مسئلهای حاشیهای نیست، بلکه ادامهای است از جنگ تمامعیار رژیم صهیونیستی علیه حقیقت و آزادی بیان. آگاهی عمومی همراه با سازماندهی هوشمند کارزارهای مقاومت دیجیتال، همچنان سلاح بازدارنده در برابر تلاشها برای خاموش کردن روایت فلسطین خواهد بود.
طرح ایمنسازی اطلاعات و مقابله با کنترل الگوریتمها
۱) رصد و کشف (۰ تا ۲ هفته)
• طراحی داشبورد پایش برای رصد:
• تغییرات دسترسی (Reach) و افت ناگهانی در هر پلتفرم.
• کلیدواژهها و هشتگهای رو به رشد یا افول.
• الگوهای کارزار هماهنگ (انتشار همزمان، حسابهای تازه، نظرهای تکراری).
• ابزارها: تحلیلهای درونی پلتفرمها، ابزار پایش هشتگ، بایگانی محتوا و اسکرینشاتهای زماندار برای حفظ مدارک.
۲) تابآوری فنی و تنوع کانالها (۰ تا ۴ هفته)
• پرهیز از وابستگی به یک پلتفرم: توزیع محتوا در شبکههای اجتماعی گوناگون، RSS، ایمیل، پادکست و نسخههای mirror برای محتوای تصویری.
• آمادهسازی نسخههای سبک (Lite) از متنها و فایلها برای عبور از محدودیت پهنای باند یا ضعف شبکه.
• خودکارسازی پشتیبانگیری و بایگانی برای جلوگیری از حذف یا محدودسازی محتوا.
۳) کیفیت محتوا و قابلیت کشفپذیری (مستمر)
• تولید محتوای «سازگار با الگوریتم» بدون خدشه به اعتبار:
• تیترهای دقیق که در ۱۲۰ کاراکتر اول به پرسشهای «چه؟ کِی؟ کجا؟» پاسخ دهند.
• توضیح غنی از دادهها (Alt text، کپشن، بخشبندی زمانی برای ویدیو).
• ساختار تکرارشونده و زمانبندی ثابت انتشار.
• اولویت با منابع مستند: شهادتهای انسانی، عکس/ویدئو با دادههای اصالت (Provenance)، لینک به منابع بیطرف.
• استفاده از «بسته پست» (متن کوتاه + رشته توییتی تفصیلی + خلاصه تصویری + لینک آرشیو).
۴) مقابله اخلاقی با اطلاعات گمراهکننده
• اصل «پاسخ متناسب»: واکنش فقط به ادعاهای پرانتشار که در صورت بیتوجهی آسیب میزنند، با ردیهای مختصر و مستند.
• کارتهای حقیقت (Fact Cards) برای استفاده مکرر در برابر ادعاهای رایج.
• شفافیت: توضیح روش بررسی و پذیرش خطا در صورت وقوع.
۵) ساخت شبکههای اعتماد و چندزبانی (۲ تا ۸ هفته)
• همکاری با رسانههای مستقل، سازمانهای حقوق بشری، آزمایشگاههای راستیآزمایی و خبرنگاران محلی.
• ترجمه حرفهای به زبانهای مخاطبان هدف با بازبینی دوگانه انسانی.
• توانمندسازی «سفیران محتوا» بهصورت داوطلبانه، با ارائه بستههای آماده همراه با دستورالعملهای حقوقی و امنیتی.
۶) مشارکت عمومی و آموزش الگوریتمها
• دعوت روشن به تعاملات مفید (نظر همراه منبع، ذخیره، اشتراک خصوصی).
• محتوای تعاملی کوتاه (نظرسنجی، پرسش درست/غلط).
• آموزش کوتاه «سواد دیجیتال»: چگونه حسابهای رباتی را شناسایی کنیم؟ چگونه محتوای خود را مستند کنیم؟
۷) کار نهادی با پلتفرمها و سیاستگذاران
• آمادهسازی پروندههای مستند از محدودسازیهای غیرموجه یا کارزارهای هماهنگ و ارسال به کانالهای رسمی پلتفرمها.
• مشارکت در مشاورههای سیاستگذاری محتوا و مطالبه سازوکارهای شفاف برای اعتراض.
• همکاری با نهادهای مستقل پایش عدالت الگوریتمی و انتشار گزارشهای دورهای.
۸) ایمنی دیجیتال و حقوقی
• آموزش تیمها در زمینه امنیت حسابها (کلیدهای امنیتی، احراز هویت چندمرحلهای، مدیریت دسترسیها).
• پروتکلهای مقابله با اذیت و آزار، گزارشهای سوءاستفاده و «دوکسینگ» (Doxing).
• مشاورههای حقوقی پیشگیرانه درباره حدود استفاده عادلانه، حریم خصوصی و حقوق نشر.
۹) سنجش و بهبود (ماهانه)
• شاخصهای کلیدی عملکرد (KPI): نرخ تکمیل ویدئوها، ذخیره محتوا، اشتراکگذاری خصوصی، تکرار ذکر در منابع مستقل، کیفیت لینکهای برگشتی.
• آزمونهای A/B برای عناوین، ابتدای تصاویر و طول محتواها.
• بازبینی فصلی برای تخصیص دوباره منابع به شکلهایی که بیشترین اثر را دارند.
۱۰) اصول اخلاقی حاکم
• حقیقت پیش از انتشار: بدون مستندسازی، چیزی منتشر نشود.
• انساندوستی بدون تحریک یا زدودن کرامت انسانی.
• حفاظت از افراد و قربانیان بالاتر از هر سود تبلیغاتی.
• تمایز واضح میان نظر و خبر.
آیا نتانیاهو و همکارانش بر الگوریتمها تسلط دارند؟
هیچ مدرک عمومی و قطعی وجود ندارد که بنیامین نتانیاهو یا هیچ رهبر سیاسی خاصی به طور مستقیم «بر الگوریتمهای شبکههای اجتماعی» کنترل داشته باشد.
با این حال، واقعیتهای موجود عبارتند از:
۱. همکاری با شرکتهای فناوری
• برخی دولتها، از جمله ایالات متحده و اتحادیه اروپا، کانالهای ارتباطی رسمی با مدیریت پلتفرمهای بزرگ (Meta، Google، X/Twitter سابق) دارند.
• رژیم صهیونیستی (از طریق وزارت خارجه و سایر وزارتخانهها) شناخته شده است که بر شرکتها فشار میآورد تا محتوایی که آن را «تحریکآمیز» میداند، حذف یا محدود کنند. این سیاست در گزارشهای سازمانهای حقوق بشری بینالمللی مستند شده است.
۲. کارزارهای هماهنگ (Coordinated Campaigns)
• لشکرهای دیجیتال (Bots & Trolls) برای تأثیرگذاری بر افکار عمومی از طریق نظرات، گزارشهای جمعی و تقویت مصنوعی هشتگها مدیریت میشوند.
• این کارزارها میتوانند «چه چیزی پرطرفدار است» (Trending) را تغییر دهند یا برخی صداها را با گزارشها محو کنند.
۳. جانبداری خود پلتفرمها
• گاهی کنترل مستقیم وجود ندارد، بلکه جانبداری ناشی از سیاستهای داخلی شرکت است (مثلاً قوانین «خشونت و تروریسم» که بر محتوای خاص سختگیرانه اعمال میشوند و بر محتوای دیگر تساهل دارند).
• این امر احساس میکند که «الگوریتم تحت کنترل است» در حالی که واقعیت ترکیبی از فشار سیاسی و سیاستهای داخلی شرکتهاست.
۴. نقش خود الگوریتم
• الگوریتمها برای تقویت محتوایی که تعامل بالایی دارد طراحی شدهاند (Likes, Shares, Comments).
• بنابراین هر نهادی که منابع عظیم و لشکرهای دیجیتال منظم دارد، میتواند الگوریتم را به جهتی که به نفعش است سوق دهد.
💡 خلاصه
نمیتوان گفت نتانیاهو «کنترل کامل» بر الگوریتمها دارد، اما میتوان با اطمینان گفت که رژیم صهیونیستی از فشار سیاسی، کارزارهای دیجیتال و لابیها برای تأثیرگذاری بر نحوه اعمال الگوریتمها و قوانین محتوا استفاده میکند.
گزارشهای سازمانهای بینالمللی درباره محدودسازی محتوا مرتبط با فلسطین و غزه در Facebook، Instagram و Twitter/X
شواهد تغییر الگوریتمها و محدودسازی محتوا:
۱. گزارش Human Rights Watch – “Meta’s Broken Promises” (دسامبر ۲۰۲۳)
• این گزارش بیش از ۱۰۵۰ مورد حذف یا محدودسازی پستهای مرتبط با فلسطینیها و حقوق مسلمانان در Instagram و Facebook از اکتبر ۲۰۲۳ را ثبت کرده است که به عنوان سانسور سیستماتیک و جهانی توصیف شده است.
• اشکال سانسور شامل: حذف، غیرفعال کردن حسابها، کاهش تعامل («shadow banning»)، محدود کردن انتشار یا دنبال کردن و پخش زنده بود.
• تبعیض در اجرای غیرشفاف سیاستها و پاسخ بیش از حد به درخواستهای حذف از سوی مقامات دولتی، از جمله واحد اینترنت اسرائیل مشاهده شد.
۲. گزارشهای Amnesty International (اکتبر ۲۰۲۳)
• وجود سانسور «سایهای» گسترده برای پستهای مدافع فلسطین به ویژه در طول تشدید عملیات نظامی علیه غزه تأیید شد.
• تأکید شد که نظارت انسانی دقیق بر تصمیمات الگوریتمهای محتوا ضروری است.
۳. فاششدن دادههای Meta – کارزار اسرائیلی گسترده (آوریل ۲۰۲۵)
• طبق دادههای فاششده، Meta به ۹۴٪ درخواستهای حذف ارائه شده توسط دولت اسرائیل از اکتبر ۲۰۲۳ پاسخ داده است، شامل محتوای خارج از اسرائیل، که به عنوان یکی از بزرگترین کارزارهای سانسور جمعی در عصر مدرن توصیف شده است.
۴. همکاری با واحد اینترنت اسرائیل (Israeli Cyber Unit)
• از آغاز تشدید تنشها تا نوامبر، حدود ۹۵۰۰ درخواست حذف توسط مقامات اسرائیلی ارائه شد که حدود ۶۰٪ آن به Meta مربوط بود و نرخ پاسخدهی به ۹۴٪ رسید.
• توصیههای مستقل برای Meta ارسال شد تا روش رسیدگی به درخواستهای دولت در گزارشهای شفافیت توضیح داده شود.
۵. سکوت یا محدودسازی رسانههای رسمی اسرائیل (آگوست ۲۰۲۵)
• با وجود بحران انسانی در غزه، رسانههای اسرائیلی اخبار را با احتیاط یا تقریباً نادیده پوشش دادند. یک نظرسنجی نشان داد که ۷۹٪ یهودیان اسرائیلی احتمالاً تحت تأثیر قرار نگرفتند به دلیل محدودیت پوشش رسانهای محلی.
۶. پروندههای قضایی در شرکتهای فناوری
• در ژوئن ۲۰۲۵، یک کارمند سابق مسلمان Meta علیه شرکت دعوایی مطرح کرد که ادعا شد به دلیل ابراز همبستگی دینی با فلسطینیها از کار برکنار شده است، در حالی که به کارکنان غیرمسلمان اجازه داده شده بود آزادانه مواضع دیگری بیان کنند.
۷. سانسور قانونی در غرب
• در بریتانیا، قانون «ایمنی آنلاین» (Online Safety Act) و ممنوعیت گروه Palestine Action نگرانیهایی ایجاد کرده است درباره احتمال حذف یا مسدودسازی محتوای فلسطینی بهصورت داخلی یا خودکار به دلیل ابهامهای قانونی، که ممکن است به حقوق بحث عمومی آسیب برساند.
میتوان بهطور خلاصه گفت:
• به نظر نمیرسد نتانیاهو یا هیچ رهبر سیاسی دیگری بهصورت مستقیم کنترل الگوریتمها را در دست داشته باشند.
• اما دادهها و نقضهای مستند نشاندهنده فشار سیاسی و درخواستهای رسمی از سوی مقامات اسرائیلی است که توسط پلتفرمهایی مانند Meta بررسی میشوند و منجر به تصمیمگیریهای حساس درباره سانسور میشود.
• این فشار میتواند باعث کاهش انتشار یا محدودسازی محتوای انتقادی نسبت به کارزارهای اسرائیلی یا محتوای حمایتکننده از فلسطینیها شود، چه از طریق حذف پستها، محدودسازی دسترسی به آنها یا غیرفعال کردن حسابها.
• سانسور تنها در الگوریتم رخ نمیدهد (algorithmic bias)، بلکه شامل مداخلات رسمی و تصمیمات تحت تأثیر دستورهای خارجی است، که محیطی ایجاد میکند که گویی «تحت کنترل» است.
نحوه محدودسازی محتوای فلسطینی یا انتقادی از رژیم صهیونیستی در الگوریتمها و پلتفرمها:
🔎 اولاً: محدودسازی چگونه اتفاق میافتد؟
1. حذف مستقیم: پاک کردن پستها یا حسابهای کامل با عنوان «نقض سیاستها» (حتی اگر فقط تصاویر یا گزارشهای انسانی باشد).
2. محدودسازی پنهان (Shadow banning): محتوا حذف نمیشود اما به دنبالکنندگان نمیرسد یا از نتایج جستجو محو میشود.
3. گزارشهای گروهی (Mass reporting): هزاران حساب هدایتشده همان پست را گزارش میدهند تا کاهش یابد یا غیرفعال شود.
4. محدودسازی دسترسی (Reach Limitation): الگوریتم بهطور خودکار انتشار موضوعات خاصی را کاهش میدهد (مثلاً: #غزه یا #FreePalestine).
5. فشار دولتی: درخواستهای رسمی از واحد سایبری اسرائیل (Cyber Unit) به شرکتهایی مانند Meta و TikTok برای حذف محتوای «نامناسب».
📑 ثانیاً: گزارشها و مطالعات مستند
۱. Human Rights Watch – گزارش “Meta’s Broken Promises” (۲۰۲۳)
• بیش از ۱۰۰۰ مورد مستند سانسور محتوای فلسطینی ثبت شده است.
• نمونهها: حذف تصاویر پرچم فلسطین، شهادتهای شهروندان در غزه یا حتی دعاهای دینی به زبان عربی.
• نتیجه: HRW این اقدامات را «سانسور سیستماتیک و جانبدارانه» توصیف کرده است.
۲. Amnesty International – بیانیه اکتبر ۲۰۲۳
• وجود shadow banning گسترده روی پستهای مرتبط با فلسطین تأیید شد.
• مشاهده شد که پستهای انگلیسی کمتر محدود میشوند نسبت به عربی، که نشانه جانبداری زبانی/سیاسی است.
• خواستار نظارت انسانی اضافی به جای تکیه صرف بر هوش مصنوعی شد.
۳. فاششدن دادههای Meta (۲۰۲۵)
• طبق دادههای فاششده، دولت اسرائیل هزاران درخواست حذف جهانی ارائه داده است.
• Meta تقریباً به ۹۴٪ این درخواستها پاسخ داده است، درصدی بسیار بالا نسبت به درخواستهای سایر کشورها.
• این یعنی پستهای مرتبط با غزه یا اشغال حتی اگر از حسابهایی در آمریکا، بریتانیا یا آسیا منتشر شده باشند، حذف شدهاند.
۴. EFF (Electronic Frontier Foundation)
• ثبت شده که اسرائیل ۹۵۰۰ درخواست حذف بین اکتبر و نوامبر ۲۰۲۳ ارائه کرده است.
• ۶۰٪ این درخواستها هدف Meta (فیسبوک و اینستاگرام) بوده است.
• اغلب این درخواستها بدون شفافیت یا بررسی حقوقی انجام شدهاند.
۵. پرونده حقوقی علیه Meta (۲۰۲۵ – ایالت تگزاس)
• یک کارمند مسلمان سابق شکایتی مطرح کرد پس از آنکه به ادعای «نقض سیاستها» اخراج شد، در حالی که دلیل واقعی حمایت علنی او از فلسطین در شرکت بود.
• او گفت که همکاران غیرمسلمان آزادانه مواضع سیاسی دیگر خود را ابراز میکنند و مجازاتی دریافت نکردهاند.
👉 این نشاندهنده یک محیط داخلی جانبدارانه است که حتی بر کارکنان فشار وارد میکند.
⚡ ثالثاً: نتایج واقعی
• کاربر عادی احساس میکند صدایش خاموش است، پستهایش نمیرسد، حسابش بدون دلیل روشن مسدود یا محدود میشود.
• جانبداری رسانهای تثبیت میشود: محتوای مستند از غزه نمایش داده نمیشود، در حالی که روایت رسمی مجاز است.
• الگوریتمها به ابزار سیاسی تبدیل میشوند: به جای اینکه ابزار بیطرف برای انتشار اطلاعات باشند، تحت فشار و درخواستهای دولتی عمل میکنند.
📌 درنهایت
• نمیتوان گفت نتانیاهو «ریموت الگوریتمها» را بهطور مستقیم در دست دارد.
• اما رژیم صهیونیستی از موارد زیر استفاده میکند:
• فشار رسمی دولتی بر شرکتها،
• لشکرهای دیجیتال برای گزارش و تقویت مصنوعی محتوا،
• حمایت لابیهای سیاسی و رسانهای قدرتمند،
که باعث میشود الگوریتمها در نهایت جانبدار شوند و منافع او را تأمین کنند و روایت فلسطینی یا انتقادی را محدود کنند.
🛡️ استراتژیهای مقابله با سانسور الگوریتمی
۱️⃣ تنوع پلتفرمها و عدم اتکا به یک مورد
• فقط به فیسبوک یا اینستاگرام اکتفا نکنید، محتوا را توزیع کنید روی:
• X / توییتر، TikTok، یوتیوب، تلگرام، واتساپ، Signal، پادکست.
• نسخههای «آینهای» (Mirror sites) برای محتوای تصویری بسازید تا در صورت حذف، پیام همچنان پابرجا باشد.
• این تضمین میکند حذف از یک پلتفرم، پیام را خاموش نکند.
۲️⃣ تسلط بر «زبان الگوریتم»
• از کلیدواژههای انعطافپذیر به جای کلمات ممنوعه استفاده کنید (مثلاً «غـ.ـزه» به جای «غزه» در مواقع ضروری).
• همیشه محتوا را با توضیحات متنی (Alt text) و کامنتهای هوشمند همراه کنید تا الگوریتم راحتتر آن را درک و منتشر کند.
• روی فرمت ویدئو کوتاه (Reels / Shorts) تمرکز کنید، زیرا پلتفرمها به آن اولویت میدهند.
• از هشتگهای متنوع و تازه استفاده کنید و به یک هشتگ بسنده نکنید (مثلاً صرفاً #FreePalestine را استفاده نکنید، بلکه هشتگهای انسانی/حقوقی عمومی را هم ادغام کنید).
۳️⃣ افشای محدودسازی به جای سکوت
• هنگام رخ دادن Shadow banning: با عکس و اسکرینشات مستند کنید.
• شواهد را با خبرنگاران و سازمانهای حقوق دیجیتال (مانند EFF یا HRW) به اشتراک بگذارید.
• خود سانسور را به «خبر» تبدیل کنید تا فشار روی شرکتها ایجاد شود.
۴️⃣ ایجاد شبکههای انسانی انتشار
• گروههای بازنشر (Amplification Groups) در تلگرام و واتساپ ایجاد کنید.
• هر پستی که محدود شد، دستی توسط دهها حساب بازنشر شود.
• شبکههای انسانی ضعف الگوریتم را جبران میکنند و آن را مجبور به بازتوجه به محتوا میکنند.
۵️⃣ محتوای مستند، مانع سانسور
• اسناد اصلی (عکس/ویدئو با زمان و مکان) حذف آنها توسط شرکتها دشوار است، زیرا ممکن است متهم به جانبداری شوند.
• استفاده از ابزارهای اعتبارسنجی باز (مانند InVID یا metadata check) اعتبار محتوا را افزایش میدهد.
• هر پست کوتاه و مستقیم باشد و لینک منبع طولانیتر (سایت یا کانال جایگزین) داشته باشد.
۶️⃣ فشار حقوقی و حقوق بشری
• شکایات گروهی به پلتفرمها با استفاده از مکانیزم Appeal ارائه دهید.
• با سازمانهای آزادی بیان (مانند Article 19 یا Access Now) مکاتبه کنید.
• اقامه دعاوی (همانند پرونده تگزاس علیه Meta) بازدارنده سانسور جانبدارانه است.
۷️⃣ دور زدن با خلاقیت
• از نمادها و ایموجی یا تصاویر توضیحی به جای کلمات ممنوعه استفاده کنید.
• داستانهای انسانی و شهادتهای شخصی به جای شعارهای مستقیم؛ اینها برای الگوریتم سختتر است که بدون دلیل سانسور شوند.
• طنز و کمدی (میمها – Memes) سریعتر منتشر میشوند و اغلب از سانسور فرار میکنند.
۸️⃣ آموزش و آگاهی
• درسهای کوتاه برای دنبالکنندگان: چگونه محتوا را مستند کنند؟ چگونه بفهمند تحت Shadow ban هستند؟
• تشویق مخاطب به تعامل مفید (کامنت + ذخیره + اشتراکگذاری خصوصی) زیرا این «الگوریتم را آموزش میدهد» تا محتوا را ارتقا دهد.
باید درک کنیم که:
مقابله تنها فنی نیست، بلکه شبکهای، رسانهای و حقوقی است:
• محتوا را توزیع کنید،
• بازی الگوریتم را یاد بگیرید،
• سانسور را با شواهد افشا کنید،
• شبکه انسانی قدرتمند بسازید،
• و خود محدودسازی را به ابزار افشا و فشار بر شرکتها تبدیل کنید.
🗂️ برنامه عملی برای مقابله با محدودیتهای الگوریتمی
📅 اول: وظایف روزانه
✅ تنوع انتشار:
• حداقل روی ۳ پلتفرم منتشر کنید (مثلاً X + اینستاگرام + تلگرام).
• همان محتوا را به صورت کوتاه (ویدئو کوتاه، تصویر، متن) کپی کنید.
✅ فعالسازی تعامل اولیه:
• از دنبالکنندگان اولیه بخواهید در اولین ساعت «کامنت + ذخیره + اشتراکگذاری» انجام دهند؛ این شانس انتشار را افزایش میدهد.
✅ بررسی محدودسازی:
• با حساب دیگر یا مرورگر ناشناس (Incognito) پستهای خود را بررسی کنید.
• اگر محتوا دیده نمیشود → با عکس مستند کنید.
✅ توزیع انسانی:
• لینک محتوا را به گروههای کوچک تلگرام/واتساپ برای بازنشر دستی ارسال کنید.
📆 دوم: وظایف هفتگی
🔹 آزمایش فرمتها:
• هر هفته دو فرمت مختلف امتحان کنید: (ویدئو کوتاه مقابل تصویر – متن بلند مقابل Thread کوتاه).
• بررسی کنید کدام یک تعامل بیشتری دارد.
🔹 پیگیری هشتگها:
• ۵ هشتگ فعال انتخاب کنید و همیشه از یک هشتگ استفاده نکنید.
• هشتگهای عمومی (#حقوق_الإنسان، #العداله) را کنار هشتگهای سیاسی اضافه کنید.
🔹 جلسه مستندسازی:
• شواهد حذف یا محدودسازی هفته را جمعآوری کنید.
• آنها را در فایل مرتب کنید (Screenshots + لینکها).
🔹 گزارش کوتاه:
• خلاصهای ۳–۵ خطی به دنبالکنندگان یا تیم خود ارسال کنید: چه چیزی موفق بود؟ چه چیزی سانسور شد؟
📅 سوم: وظایف ماهانه
🔸 آموزش تیم/دوستان:
• کارگاه کوتاه آنلاین (Zoom یا Telegram): «چگونه محتوا را مستند کنیم؟ چگونه بفهمیم تحت Shadow ban هستیم؟»
🔸 ارتباط حقوقی:
• گزارش مستند خود را به سازمانهایی مانند:
• EFF (Electronic Frontier Foundation)
• Access Now
• Article 19 ارسال کنید.
• این سازمانها روی شرکتها فشار میآورند و بیانیه عمومی صادر میکنند.
🔸 بازتنظیم کانالها:
• کانالهای جایگزین باز کنید (وبلاگ ساده، پادکست، Newsletter).
• به دنبالکنندگان یادآوری کنید که همیشه راههایی برای دسترسی خارج از پلتفرمهای بزرگ وجود دارد.
🛡️ قوانین طلایی
• سرعت: انتشار سریع در رویدادها شانس انتشار قبل از حذف را افزایش میدهد.
• مستندسازی: هر حذف = مدرک. آن را آرشیو کنید.
• انعطافپذیری: به جای برخورد مستقیم با کلمات ممنوعه، واژهها و فرمتها را تغییر دهید.
• جمعی بودن: یک فرد به راحتی صدایش خاموش میشود، اما شبکه انسانی کنترل آن را دشوار میکند.