Apache Spark — это технология кластерных вычислений, основанная на Hadoop MapReduce и расширяющая его модель, позволяя использовать интерактивные запросы и потоковую обработку. Главной особенностью Spark являются его кластерные вычисления в памяти, которые увеличивают скорость обработки приложения.
Spark предназначен для покрытия широкого спектра нагрузок, таких как пакетные приложения, итерационные алгоритмы, интерактивные запросы и потоковая передача. Помимо поддержки всех этих рабочих нагрузок в соответствующей системе, это снижает нагрузку на управление, связанную с обслуживанием отдельных инструментов.
Spark — это один из подпроектов Hadoop, разработанный Матеем Захария в 2009 году в AMPLab Калифорнийского университета в Беркли. Он был открыт в 2010 году под лицензией BSD.
Apache Spark имеет следующие функции.
Автор оригинальной статьи: tutorialspoint.com
© Лена Капаца. Все права защищены.