Специализация
Python Backend Developer
Java Backend Developer
Node.js Backend Developer
Golang Backend Developer
React Frontend Developer
Выберите навыки
React
JavaScript
Git
Redux
Webpack
Сложность
1-3
4-6
7-8
9-10
Рейтинг вопросов
1
2
3
4
5
Подпишись на React Developer в телеграм
Как использовать Fetch API и Streams для обработки больших объемов данных?
Fetch API позволяет загружать данные с сервера, а Streams — обрабатывать их по частям, что особенно полезно для работы с большими объемами данных. Вместо загрузки всего файла сразу, можно использовать метод response.body.getReader(), чтобы считывать данные частями, что позволяет уменьшить использование памяти и ускорить обработку. Это позволяет начать обработку данных, не дожидаясь полной загрузки, что особенно полезно для больших файлов, таких как видео или изображения.
Как правильно делать downstream HTTPS запросы внутри Uvicorn/FastAPI?
Для выполнения downstream HTTPS-запросов в FastAPI используется библиотека httpx, которая поддерживает асинхронные запросы, сохраняя производительность приложения.
Oбъяснитe разницу между readFile и createReadStream в Node.js?
readFile читает весь файл в память сразу, а createReadStream читает файл построчно или по частям в виде потока данных.
Что такое потоковое чтение и запись (streams) в Node.js?
Потоки (streams) в Node.js — это интерфейсы для чтения и записи данных постепенно, без загрузки всего содержимого в память. Это особенно полезно для работы с большими файлами или потоками данных, такими как видео или большие текстовые файлы.
Что такое поток (stream) в C++?
Поток в C++ — это абстракция для операций ввода/вывода, представляющая собой последовательность символов, считываемых или записываемых на устройства, такие как консоль или файл. Потоки, такие как стандартный ввод (cin) и стандартный вывод (cout), позволяют удобно работать с вводом и выводом.
Что такое iostream в C++?
Как обрабатываются стриминговые данные? (Spark Structured Streaming)
Зачем явно закрывать ресурсы (например, InputStream)? Почему сборщик мусора не делает это автоматически?
Какие промежуточные и терминальные операции в Stream API ты использовал?
Как решить задачу на группировку с помощью Stream API?
Рейтинг:
2
Сложность:
4
iostream — это заголовочный файл стандартной библиотеки C++, который определяет потоки ввода и вывода, такие как cin (ввод) и cout (вывод).
Рейтинг:
1
Сложность:
9
Spark Structured Streaming обрабатывает данные микропакетами, используя ту же API, что и для пакетной обработки. Данные поступают из Kafka, Kinesis или файловой системы, обрабатываются через DataFrame API и выводятся в хранилища или дашборды. Гарантируется exactly-once семантика обработки.
Рейтинг:
1
Сложность:
7
Ресурсы (файлы, соединения) требуют явного закрытия, чтобы освободить системные ресурсы (память, дескрипторы). Сборщик мусора не гарантирует своевременное удаление, так как работает с памятью JVM, а не с внешними ресурсами.
Рейтинг:
1
Сложность:
6
Промежуточные (lazy): filter, map, flatMap, sorted, distinct.
Терминальные (eager): forEach, collect, reduce, count, anyMatch.
Рейтинг:
1
Сложность:
6
Используйте Collectors.groupingBy для группировки элементов по ключу:
Map<String, List<Person>> peopleByCity = people.stream()
.collect(Collectors.groupingBy(Person::getCity));Рейтинг:
2
Сложность:
7
Рейтинг:
2
Сложность:
7
Рейтинг:
4
Сложность:
5
Рейтинг:
4
Сложность:
6
Рейтинг:
2
Сложность:
5