این تایپ ایونت ها علاوه بر بحث شرکت در یه برنامه باگ بانتی پر از فرصت یادگیری،محک زدن خود، ارتباط با بقیه دوستان و تبادل دانش با همدیگه است، هرموقع همچین
ایونت هایی برگذار شد و شرایطشو داشتین حتما شرکت کنین…
ممنون از بلو بابت مهمون نوازیشون💙
ایونت هایی برگذار شد و شرایطشو داشتین حتما شرکت کنین…
ممنون از بلو بابت مهمون نوازیشون💙
❤32
ex-js.py
5.5 KB
Hi everyone,
I’ve created a Python script that deeply scans and extracts subdomains from JavaScript files, CSP headers, and raw HTML of a target website.
Unfortunately, I currently don’t have access to my GitHub account, and I’m not sure if I’ll be able to recover it.
So for now, I’m sharing the script here with you — feel free to use it while I work on recovering my GitHub or creating a new account.
Usage:
Stay tuned for more tools and research!
🔗 https://yangx.top/rootdr_research
I’ve created a Python script that deeply scans and extracts subdomains from JavaScript files, CSP headers, and raw HTML of a target website.
Unfortunately, I currently don’t have access to my GitHub account, and I’m not sure if I’ll be able to recover it.
So for now, I’m sharing the script here with you — feel free to use it while I work on recovering my GitHub or creating a new account.
pip install requests beautifulsoup4
Usage:
python ex-js.py -d example.com
Stay tuned for more tools and research!
🔗 https://yangx.top/rootdr_research
🔥7❤4👍2
Bugbounty Tips
ex-js.py
سلام به همه،
یک اسکریپت پایتونی آماده کردم که سابدامینها رو از فایلهای JavaScript، هدرهای CSP و کد HTML خام سایت هدف استخراج میکنه.
متأسفانه در حال حاضر به حساب گیتهابم دسترسی ندارم و مطمئن نیستم بتونم اون رو بازیابی کنم یا نه.
فعلاً این اسکریپت رو اینجا باهاتون به اشتراک میذارم تا بتونید ازش استفاده کنید، تا زمانی که گیتهابم رو بازیابی کنم یا یک اکانت جدید بسازم.
منتظر ابزارها و تحقیقهای بیشتری باشید!
🔗 https://yangx.top/rootdr_research
یک اسکریپت پایتونی آماده کردم که سابدامینها رو از فایلهای JavaScript، هدرهای CSP و کد HTML خام سایت هدف استخراج میکنه.
متأسفانه در حال حاضر به حساب گیتهابم دسترسی ندارم و مطمئن نیستم بتونم اون رو بازیابی کنم یا نه.
فعلاً این اسکریپت رو اینجا باهاتون به اشتراک میذارم تا بتونید ازش استفاده کنید، تا زمانی که گیتهابم رو بازیابی کنم یا یک اکانت جدید بسازم.
منتظر ابزارها و تحقیقهای بیشتری باشید!
🔗 https://yangx.top/rootdr_research
Telegram
Bugbounty Tips
research and sharing in cybersecurity
❤17👍2🔥1
نکته مهم در تستهای امنیتی API
وقتی دارید روی یک برنامه باگبانتی یا پروژه تست نفوذ کار میکنید، مخصوصاً برای کشف آسیبپذیریهای:
- IDOR (Insecure Direct Object Reference)
- BAC (Broken Access Control)
- Authorization Issues
حتماً به این نکته توجه کنید:
همهی اندپوینتها رو تست کنید!
مهم نیست اگر ۹۹ تا از ۱۰۰ اندپوینت امن بودن، فقط همون یک مورد آسیبپذیر ممکنه کل سیستم رو به خطر بندازه.
همیشه با انواع ورودیها تستتونو تکمیل کنین مثل:
-
-
-
-
-
-
-
-
-
📌 حتی اگر پلتفرم ایرانی باشه یا خارجی، تجربه ثابت کرده که با تست خلاقانه و روشهای مختلف، آسیبپذیری پیدا میشه!
Golden Tip for API Security Testing
When you're working on a bug bounty program or a penetration testing project, especially for discovering vulnerabilities like:
- IDOR (Insecure Direct Object Reference)
- BAC (Broken Access Control)
- Authorization Issues
Pay close attention to this tip:
Test every endpoint!
It doesn't matter if 99 out of 100 endpoints seem secure — that one vulnerable endpoint could compromise the entire system.
🧪 Always test with different input types such as:
-
-
-
-
-
-
-
-
-
📌 Whether you're dealing with an Iranian or international platform, experience shows that creative and diverse testing often reveals vulnerabilities.
#bugbounty #pentest #websecurity #IDOR #Authorization
وقتی دارید روی یک برنامه باگبانتی یا پروژه تست نفوذ کار میکنید، مخصوصاً برای کشف آسیبپذیریهای:
- IDOR (Insecure Direct Object Reference)
- BAC (Broken Access Control)
- Authorization Issues
حتماً به این نکته توجه کنید:
همهی اندپوینتها رو تست کنید!
مهم نیست اگر ۹۹ تا از ۱۰۰ اندپوینت امن بودن، فقط همون یک مورد آسیبپذیر ممکنه کل سیستم رو به خطر بندازه.
همیشه با انواع ورودیها تستتونو تکمیل کنین مثل:
-
null
-
0
-
-1
-
9999999
-
true / false
-
""
(رشته خالی)-
[]
(آرایه)-
{}
(آبجکت)-
float / int
📌 حتی اگر پلتفرم ایرانی باشه یا خارجی، تجربه ثابت کرده که با تست خلاقانه و روشهای مختلف، آسیبپذیری پیدا میشه!
Golden Tip for API Security Testing
When you're working on a bug bounty program or a penetration testing project, especially for discovering vulnerabilities like:
- IDOR (Insecure Direct Object Reference)
- BAC (Broken Access Control)
- Authorization Issues
Pay close attention to this tip:
Test every endpoint!
It doesn't matter if 99 out of 100 endpoints seem secure — that one vulnerable endpoint could compromise the entire system.
🧪 Always test with different input types such as:
-
null
-
0
-
-1
-
9999999
-
true / false
-
""
(empty string)-
[]
(array)-
{}
(object)-
float / int
📌 Whether you're dealing with an Iranian or international platform, experience shows that creative and diverse testing often reveals vulnerabilities.
#bugbounty #pentest #websecurity #IDOR #Authorization
🔥23❤11👍6🤣4👏1
👍5🔥4👏1
Forwarded from Code Review
دویست ساعت تجربه بهترین هکرها.pdf
441.3 KB
یه بنده خدایی اومده 200 ساعت وقت گذاشته و تمام مصاحبه های بهترین هکر هارو دیده و با مسیر و طرز فکر خودش مقایسه کرده و اشتباهاتشو نوشته.
بهتون خیلی پیشنهاد میکنم این کتابو بخونین ، مایندستتون رو زیر و رو میکنه.
بهتون خیلی پیشنهاد میکنم این کتابو بخونین ، مایندستتون رو زیر و رو میکنه.
❤14
Forwarded from OnHex
🔴 محققای Trail of Bits یک روش حمله ی جدیدی رو پیاده سازی کردن که از طریق تزریق پرامپتهای مخرب در تصاویر پردازش شده توسط سیستمهای هوش مصنوعی، دادههای کاربران رو میدزدن.
این تحقیق بر مبنای نظریهای است که در مقالهای از کنفرانس USENIX 2020 توسط دانشگاه آلمانی TU Braunschweig ارائه شده.
وقتی کاربر تصویری رو در سیستمهای هوش مصنوعی آپلود میکنه، این تصاویر بطور خودکار برای بهبود کارایی و کاهش هزینه، از طریق الگوریتمهای Resampling مانند Nearest Neighbor، Bilinear یا Bicubic interpolation به کیفیت پایینتر Downscale میشه.
وقتی تصویر بزرگ رو کوچیک میکنیم، باید پیکسلهای زیادی رو در یک فضای کوچیک جا بدیم، بنابراین الگوریتمها نمیتونن تمام جزییات تصویر اصلی رو بصورت کامل نگه دارن. بنابراین روی تصویر کوچیک شده یسری خطای دید یا طرحهای اضافی بوجود میاد که اصطلاحا بهشون Aliasing میگن.
مهاجم تصویری رو میسازه که وقتی کوچیک شد و این Aliasing رخ داد، الگوهای مخفی ظاهر میشه.
در نمونهی Trail of Bits، بخشهای تیرهی خاصی از تصویر مخرب هنگام پردازش با روش Bicubic downscaling به رنگ قرمز درمیاد و در نتیجه متن مخفی به رنگ سیاه ظاهر میشه.
مدل هوش مصنوعی این متن رو بخشی از دستور کاربر تفسیر کرده و بطور خودکار اونو با ورودی اصلی ترکیب میکنه.
از دید کاربر هیچ چیز غیرعادی بنظر نمیرسه، اما در عمل، مدل دستورالعملهای مخفی رو اجرا کرده که میتونه به نشت داده یا اقدامات پرخطر دیگه منجر بشه.
برای مثال، در یک حملهی تستی علیه Gemini CLI، پژوهشگران تونستن دادههای Google Calendar رو به یک آدرس ایمیل دلخواه ارسال کنن.
محققای Trail of Bits توضیح میدن که این حمله باید متناسب با هر مدل هوش مصنوعی و الگوریتم downscaling مورد استفادهی اون تنظیم بشه. با این حال، پژوهشگران تأیید کردن که روششون در برابر سیستمهای زیر قابل استفاده است:
Google Gemini CLI
Vertex AI Studio (with Gemini backend)
Gemini's web interface
Gemini's API via the llm CLI
Google Assistant on an Android phone
Genspark
از آنجا که این بردار حمله گسترده هستش، میتونه فراتر از ابزارهای تست شده هم شامل بشه. همچنین برای نمایش یافتههای خودشون، ابزار متنباز Anamorpher رو منتشر کردن که میتونه برای هر یک از روشهای Downscaling ذکرشده تصویر مخرب تولید کنه.
محققای Trail of Bits توصیه میکنن سیستمهای هوش مصنوعی در زمان آپلود تصاویر توسط کاربران، محدودیتهای ابعادی اعمال کنن. اگه Downscaling ضروری بود، بهتره پیشنمایشی از تصویر نهایی که به LLM ارسال خواهد شد، به کاربر نمایش داده بشه.
همچنین تأکید میکنن که باید برای اجرای دستورات حساس تأیید صریح کاربر دریافت بشه.
#هوش_مصنوعی
#AI
🆔 @onhex_ir
➡️ ALL Link
این تحقیق بر مبنای نظریهای است که در مقالهای از کنفرانس USENIX 2020 توسط دانشگاه آلمانی TU Braunschweig ارائه شده.
وقتی کاربر تصویری رو در سیستمهای هوش مصنوعی آپلود میکنه، این تصاویر بطور خودکار برای بهبود کارایی و کاهش هزینه، از طریق الگوریتمهای Resampling مانند Nearest Neighbor، Bilinear یا Bicubic interpolation به کیفیت پایینتر Downscale میشه.
وقتی تصویر بزرگ رو کوچیک میکنیم، باید پیکسلهای زیادی رو در یک فضای کوچیک جا بدیم، بنابراین الگوریتمها نمیتونن تمام جزییات تصویر اصلی رو بصورت کامل نگه دارن. بنابراین روی تصویر کوچیک شده یسری خطای دید یا طرحهای اضافی بوجود میاد که اصطلاحا بهشون Aliasing میگن.
مهاجم تصویری رو میسازه که وقتی کوچیک شد و این Aliasing رخ داد، الگوهای مخفی ظاهر میشه.
در نمونهی Trail of Bits، بخشهای تیرهی خاصی از تصویر مخرب هنگام پردازش با روش Bicubic downscaling به رنگ قرمز درمیاد و در نتیجه متن مخفی به رنگ سیاه ظاهر میشه.
مدل هوش مصنوعی این متن رو بخشی از دستور کاربر تفسیر کرده و بطور خودکار اونو با ورودی اصلی ترکیب میکنه.
از دید کاربر هیچ چیز غیرعادی بنظر نمیرسه، اما در عمل، مدل دستورالعملهای مخفی رو اجرا کرده که میتونه به نشت داده یا اقدامات پرخطر دیگه منجر بشه.
برای مثال، در یک حملهی تستی علیه Gemini CLI، پژوهشگران تونستن دادههای Google Calendar رو به یک آدرس ایمیل دلخواه ارسال کنن.
محققای Trail of Bits توضیح میدن که این حمله باید متناسب با هر مدل هوش مصنوعی و الگوریتم downscaling مورد استفادهی اون تنظیم بشه. با این حال، پژوهشگران تأیید کردن که روششون در برابر سیستمهای زیر قابل استفاده است:
Google Gemini CLI
Vertex AI Studio (with Gemini backend)
Gemini's web interface
Gemini's API via the llm CLI
Google Assistant on an Android phone
Genspark
از آنجا که این بردار حمله گسترده هستش، میتونه فراتر از ابزارهای تست شده هم شامل بشه. همچنین برای نمایش یافتههای خودشون، ابزار متنباز Anamorpher رو منتشر کردن که میتونه برای هر یک از روشهای Downscaling ذکرشده تصویر مخرب تولید کنه.
محققای Trail of Bits توصیه میکنن سیستمهای هوش مصنوعی در زمان آپلود تصاویر توسط کاربران، محدودیتهای ابعادی اعمال کنن. اگه Downscaling ضروری بود، بهتره پیشنمایشی از تصویر نهایی که به LLM ارسال خواهد شد، به کاربر نمایش داده بشه.
همچنین تأکید میکنن که باید برای اجرای دستورات حساس تأیید صریح کاربر دریافت بشه.
#هوش_مصنوعی
#AI
🆔 @onhex_ir
➡️ ALL Link
The Trail of Bits Blog
Weaponizing image scaling against production AI systems
In this blog post, we’ll detail how attackers can exploit image scaling on Gemini CLI, Vertex AI Studio, Gemini’s web and API interfaces, Google Assistant, Genspark, and other production AI systems. We’ll also explain how to mitigate and defend against these…
❤3👍1