Данный исследовательский проект посвящен детальному сопоставлению двух фундаментальных парадигм обработки данных – классической обработки массивов и более современной обработки последовательностей (потоковой обработки) – в контексте решения стандартной, но показательной задачи: вычисления среднего арифметического значения. Проект направлен на эмпирическую оценку производительности, потребления ресурсов (памяти и процессорного времени) и масштабируемости каждого подхода при работе с различными объемами и характеристиками данных. Будут рассмотрены теоретические основы, преимущества и недостатки каждой методологии, а также проанализированы сценарии, в которых один подход может превосходить другой. Результаты исследования позволят сделать обоснованные выводы о применимости тех или иных техник для оптимизации вычислительных процессов в реальных приложениях, где эффективность обработки данных является критически важной. Особое внимание будет уделено практической реализации и бенчмаркингу.