💬Метод «foreignIdFor»
При определении внешних id Laravel предлагает несколько методов, один из которых —
👉Документация
#совет
Библиотека пхпшника
При определении внешних id Laravel предлагает несколько методов, один из которых —
foreignIdFor()
. Этот метод использует имя модели и добавляет к нему «id». Это не только делает ваш код более читабельным, но и позволяет быстро перейти к модели из миграции 🚀👉Документация
#совет
Библиотека пхпшника
🥱2
🚀 Как работать с большими JSON-данными в Laravel
Если вам нужно передавать большие JSON-данные из Laravel, вы наверняка сталкивались с проблемами, такими как перегрузка памяти и тайм-ауты. В этой статье рассмотрим несколько паттернов для улучшения производительности и пользовательского опыта при работе с большими JSON-ответами.
1️⃣ Сжатие данных
Сжимаем данные с помощью gzip или Brotli на сервере (Nginx/Apache). Это минимизирует сетевой трафик и ускоряет передачу данных.
2️⃣ Стриминг JSON (не используем всю память)
JSON-массив: Используем
NDJSON: Каждая строка — отдельный объект JSON, упрощает обработку клиентом.
3️⃣ Разбиение данных на чанки
Не загружайте все данные в память. Используйте
4️⃣ Экспорт в файл
Для больших и повторяющихся экспортов создавайте предварительно сжатые файлы и подавайте их как статические ресурсы.
5️⃣ Выбор правильного формата
JSON array: Для одного документа.
NDJSON: Для построчного стриминга.
CSV: Для табличных данных.
Эти паттерны помогут вам значительно улучшить производительность и UX.
👉 Читайте статью на Medium и узнайте все детали
Библиотека пхпшника
Если вам нужно передавать большие JSON-данные из Laravel, вы наверняка сталкивались с проблемами, такими как перегрузка памяти и тайм-ауты. В этой статье рассмотрим несколько паттернов для улучшения производительности и пользовательского опыта при работе с большими JSON-ответами.
1️⃣ Сжатие данных
Сжимаем данные с помощью gzip или Brotli на сервере (Nginx/Apache). Это минимизирует сетевой трафик и ускоряет передачу данных.
2️⃣ Стриминг JSON (не используем всю память)
JSON-массив: Используем
LazyCollection
для стриминга данных по частям, что экономит память.NDJSON: Каждая строка — отдельный объект JSON, упрощает обработку клиентом.
3️⃣ Разбиение данных на чанки
Не загружайте все данные в память. Используйте
chunkById
для обработки данных партиями, что помогает избежать проблем с производительностью.4️⃣ Экспорт в файл
Для больших и повторяющихся экспортов создавайте предварительно сжатые файлы и подавайте их как статические ресурсы.
5️⃣ Выбор правильного формата
JSON array: Для одного документа.
NDJSON: Для построчного стриминга.
CSV: Для табличных данных.
Эти паттерны помогут вам значительно улучшить производительность и UX.
👉 Читайте статью на Medium и узнайте все детали
Библиотека пхпшника
❤2
⏰ Осталось 48 часов!
Обратный отсчёт пошёл: только до воскресенья 23:59 можно купить курс «AI-агенты для DS-специалистов» и начать учиться уже с 15 сентября.
⚡️ Это ваши +3 недели форы, чтобы спокойно разобраться в самых сложных темах и прийти к первому занятию 7 октября уже подготовленным.
👉 Забрать место
Обратный отсчёт пошёл: только до воскресенья 23:59 можно купить курс «AI-агенты для DS-специалистов» и начать учиться уже с 15 сентября.
⚡️ Это ваши +3 недели форы, чтобы спокойно разобраться в самых сложных темах и прийти к первому занятию 7 октября уже подготовленным.
👉 Забрать место
😁1