Bugbounty Tips
2.7K subscribers
80 photos
5 videos
13 files
83 links
research and sharing in cybersecurity
加入频道
این تایپ ایونت ها علاوه بر بحث شرکت در یه برنامه باگ بانتی پر از فرصت یادگیری،محک زدن خود، ارتباط با بقیه دوستان و تبادل دانش با همدیگه است، هرموقع همچین
ایونت هایی برگذار شد و شرایطشو داشتین حتما شرکت کنین…
ممنون از بلو بابت مهمون نوازیشون💙
32
دوستان مراقب باشید
با دقت و مطالعه دقیق شرایط قرار داد با اینطور پلتفرم ها همکاری کنید
هکروان جدیدا خیلی خیلی سختگیر تر شده.
👍275
This media is not supported in the widget
VIEW IN TELEGRAM
🔥115👌3
Channel photo updated
ex-js.py
5.5 KB
Hi everyone,
I’ve created a Python script that deeply scans and extracts subdomains from JavaScript files, CSP headers, and raw HTML of a target website.

Unfortunately, I currently don’t have access to my GitHub account, and I’m not sure if I’ll be able to recover it.
So for now, I’m sharing the script here with you — feel free to use it while I work on recovering my GitHub or creating a new account.

pip install requests beautifulsoup4

Usage:

python ex-js.py -d example.com


Stay tuned for more tools and research!
🔗 https://yangx.top/rootdr_research
🔥74👍2
Bugbounty Tips
ex-js.py
سلام به همه،
یک اسکریپت پایتونی آماده کردم که ساب‌دامین‌ها رو از فایل‌های JavaScript، هدرهای CSP و کد HTML خام سایت هدف استخراج می‌کنه.

متأسفانه در حال حاضر به حساب گیت‌هابم دسترسی ندارم و مطمئن نیستم بتونم اون رو بازیابی کنم یا نه.
فعلاً این اسکریپت رو اینجا باهاتون به اشتراک می‌ذارم تا بتونید ازش استفاده کنید، تا زمانی که گیت‌هابم رو بازیابی کنم یا یک اکانت جدید بسازم.

منتظر ابزارها و تحقیق‌های بیشتری باشید!
🔗 https://yangx.top/rootdr_research
17👍2🔥1
Bugbounty Tips pinned Deleted message
نکته مهم در تست‌های امنیتی API

وقتی دارید روی یک برنامه باگ‌بانتی یا پروژه تست نفوذ کار می‌کنید، مخصوصاً برای کشف آسیب‌پذیری‌های:
- IDOR (Insecure Direct Object Reference)
- BAC (Broken Access Control)
- Authorization Issues

حتماً به این نکته توجه کنید:

همه‌ی اندپوینت‌ها رو تست کنید!
مهم نیست اگر ۹۹ تا از ۱۰۰ اندپوینت امن بودن، فقط همون یک مورد آسیب‌پذیر ممکنه کل سیستم رو به خطر بندازه.

همیشه با انواع ورودی‌ها تستتونو تکمیل کنین مثل:
- null
- 0
- -1
- 9999999
- true / false
- "" (رشته خالی)
- [] (آرایه)
- {} (آبجکت)
- float / int

📌 حتی اگر پلتفرم ایرانی باشه یا خارجی، تجربه ثابت کرده که با تست خلاقانه و روش‌های مختلف، آسیب‌پذیری پیدا میشه!

Golden Tip for API Security Testing

When you're working on a bug bounty program or a penetration testing project, especially for discovering vulnerabilities like:
- IDOR (Insecure Direct Object Reference)
- BAC (Broken Access Control)
- Authorization Issues

Pay close attention to this tip:

Test every endpoint!

It doesn't matter if 99 out of 100 endpoints seem secure — that one vulnerable endpoint could compromise the entire system.

🧪 Always test with different input types such as:
- null
- 0
- -1
- 9999999
- true / false
- "" (empty string)
- [] (array)
- {} (object)
- float / int

📌 Whether you're dealing with an Iranian or international platform, experience shows that creative and diverse testing often reveals vulnerabilities.

#bugbounty #pentest #websecurity #IDOR #Authorization
🔥2311👍6🤣4👏1
👍5🔥4👏1
Forwarded from Code Review
دویست ساعت تجربه بهترین هکرها.pdf
441.3 KB
یه بنده خدایی اومده 200 ساعت وقت گذاشته و تمام مصاحبه های بهترین هکر هارو دیده و با مسیر و طرز فکر خودش مقایسه کرده و اشتباهاتشو نوشته.
بهتون خیلی پیشنهاد میکنم این کتابو بخونین ، مایندستتون رو زیر و رو میکنه.
14
Forwarded from market4sell
Myscada hmi exploit 0day (full config download) for sale:
500$
@Sell4market
🤣84
Forwarded from HackerOne
👍17🔥32
👌62👎1
Forwarded from OnHex
🔴 محققای Trail of Bits یک روش حمله ی جدیدی رو پیاده سازی کردن که از طریق تزریق پرامپتهای مخرب در تصاویر پردازش ‌شده توسط سیستمهای هوش مصنوعی، داده‌های کاربران رو میدزدن.

این تحقیق بر مبنای نظریه‌ای است که در مقاله‌ای از کنفرانس USENIX 2020 توسط دانشگاه آلمانی TU Braunschweig ارائه شده.

وقتی کاربر تصویری رو در سیستمهای هوش مصنوعی آپلود میکنه، این تصاویر بطور خودکار برای بهبود کارایی و کاهش هزینه، از طریق الگوریتمهای Resampling مانند Nearest Neighbor، Bilinear یا Bicubic interpolation به کیفیت پایینتر Downscale میشه.

وقتی تصویر بزرگ رو کوچیک میکنیم، باید پیکسلهای زیادی رو در یک فضای کوچیک جا بدیم، بنابراین الگوریتمها نمیتونن تمام جزییات تصویر اصلی رو بصورت کامل نگه دارن. بنابراین روی تصویر کوچیک شده یسری خطای دید یا طرحهای اضافی بوجود میاد که اصطلاحا بهشون Aliasing میگن.

مهاجم تصویری رو میسازه که وقتی کوچیک شد و این Aliasing رخ داد، الگوهای مخفی ظاهر میشه.

در نمونه‌ی Trail of Bits، بخشهای تیره‌ی خاصی از تصویر مخرب هنگام پردازش با روش Bicubic downscaling به رنگ قرمز درمیاد و در نتیجه متن مخفی به رنگ سیاه ظاهر میشه.

مدل هوش مصنوعی این متن رو بخشی از دستور کاربر تفسیر کرده و بطور خودکار اونو با ورودی اصلی ترکیب میکنه.

از دید کاربر هیچ چیز غیرعادی بنظر نمیرسه، اما در عمل، مدل دستورالعملهای مخفی رو اجرا کرده که میتونه به نشت داده یا اقدامات پرخطر دیگه منجر بشه.

برای مثال، در یک حمله‌ی تستی علیه Gemini CLI، پژوهشگران تونستن داده‌های Google Calendar رو به یک آدرس ایمیل دلخواه ارسال کنن.

محققای Trail of Bits توضیح میدن که این حمله باید متناسب با هر مدل هوش مصنوعی و الگوریتم downscaling مورد استفاده‌ی اون تنظیم بشه. با این حال، پژوهشگران تأیید کردن که روششون در برابر سیستمهای زیر قابل استفاده است:

Google Gemini CLI
Vertex AI Studio (with Gemini backend)
Gemini's web interface
Gemini's API via the llm CLI
Google Assistant on an Android phone
Genspark

از آنجا که این بردار حمله گسترده هستش، میتونه فراتر از ابزارهای تست ‌شده هم شامل بشه. همچنین برای نمایش یافته‌های خودشون، ابزار متن‌باز Anamorpher رو منتشر کردن که میتونه برای هر یک از روش‌های Downscaling ذکرشده تصویر مخرب تولید کنه.

محققای Trail of Bits توصیه میکنن سیستمهای هوش مصنوعی در زمان آپلود تصاویر توسط کاربران، محدودیتهای ابعادی اعمال کنن. اگه Downscaling ضروری بود، بهتره پیش‌نمایشی از تصویر نهایی که به LLM ارسال خواهد شد، به کاربر نمایش داده بشه.

همچنین تأکید میکنن که باید برای اجرای دستورات حساس تأیید صریح کاربر دریافت بشه.

#هوش_مصنوعی
#AI

🆔 @onhex_ir
➡️ ALL Link
3👍1