Термин «данные» для нас не нова. Это одна из основных вещей, которые преподаются при выборе информационных технологий и компьютеров. Если вы можете вспомнить, данные считаются необработанной формой информации. Хотя уже там десять лет, термин Большие данные это жужжание в эти дни. Как видно из термина, нагрузок и нагрузок данных, это Big Data, и его можно обрабатывать по-разному, используя различные методы и инструменты для получения необходимой информации. В этой статье рассказывается о концепциях больших данных с использованием 3 V, упомянутых Дугом Лани, пионером в области хранилищ данных, который, как считается, инициировал поле Infonomics (Информационная экономика).
Большие данные 3 Vs
Данные в своей огромной форме, накопленные с помощью различных средств, ранее были зарегистрированы в разных базах данных и были сбрасыты через некоторое время. Когда появилась концепция, что чем больше данных, тем проще найти - различную и релевантную информацию - используя правильные инструменты, компании начали хранить данные на более длительные периоды. Это похоже на добавление новых устройств хранения данных или использование облака для хранения данных в любой форме, в которой были получены данные: документы, электронные таблицы, базы данных и HTML и т. Д. Затем они упорядочиваются в надлежащие форматы с использованием инструментов, способных обрабатывать огромные куски Данные.
НОТА: Объем больших данных не ограничивается данными, которые вы собираете и храните в своих помещениях и облаках. Он может включать в себя данные из других источников, включая, но не ограничиваясь, предметы в общественном достоянии.
3D-модель больших данных основана на следующих версиях V:
- Том: относится к управлению хранением данных
- Скорость: относится к скорости обработки данных
- Разнообразие: относится к группировке данных разных, казалось бы, несвязанных наборов данных
Следующие параграфы объясняют моделирование больших данных, подробно описывая каждое измерение (каждый V).
A] Объем больших данных
Говоря о больших данных, можно понять объем как огромную коллекцию необработанной информации. Хотя это правда, речь идет также о стоимости хранения данных. Важные данные могут храниться как в помещениях, так и в облаке, причем последний является гибким вариантом. Но вам нужно хранить все и все?
Согласно техническому документу, выпущенному Meta Group, когда объем данных увеличивается, части данных начинают казаться ненужными. Кроме того, в нем говорится, что только тот объем данных должен быть сохранен, который предприятия намерены использовать. Другие данные могут быть отброшены или если компании не хотят отпускать «якобы не важные данные», их можно сбрасывать на неиспользуемые компьютерные устройства и даже на ленты, чтобы предприятиям не приходилось платить за хранение таких данных.
Я использовал «предположительно несущественные данные», потому что я тоже считаю, что данные любого типа могут потребоваться для любого бизнеса в будущем - рано или поздно - и, следовательно, его нужно держать на достаточное количество времени, прежде чем вы узнаете, что данные действительно не-важно. Лично я удаляю старые данные на жесткие диски с прошлых лет, а иногда и на DVD. Основные компьютеры и облачные хранилища содержат данные, которые я считаю важными, и знаю, что я буду использовать. Среди этих данных также есть данные типа «один раз», которые могут появиться на старом жестком диске через несколько лет. Вышеприведенный пример предназначен только для вашего понимания. Это не будет соответствовать описанию Big Data, так как сумма значительно меньше по сравнению с тем, что предприятия воспринимают как большие данные.
В ] Скорость в больших данных
Скорость обработки данных является важным фактором, когда речь идет о концепциях больших данных. Есть много сайтов, особенно электронная коммерция. Google уже признал, что скорость загрузки страницы необходима для лучшего ранжирования. Помимо ранжирования, скорость также обеспечивает комфорт для пользователей во время их покупки. То же самое относится к обрабатываемой информации для другой информации.
Говоря о скорости, важно знать, что она выходит за пределы более высокой пропускной способности. Он объединяет легко используемые данные с различными инструментами анализа. Легко используемые данные означают некоторую домашнюю работу по созданию структур данных, которые легко обрабатывать. Следующее измерение - Variety, распространяется дальше.
C] Разнообразие больших данных
Когда загружаются и загружаются данные, становится важным организовать их таким образом, чтобы инструменты анализа могли легко обрабатывать данные. Существуют также инструменты для организации данных. При хранении данные могут быть неструктурированными и любой формы. Это зависит от вас, чтобы выяснить, какое отношение оно имеет к вам с другими данными. Как только вы выясните отношение, вы можете подобрать соответствующие инструменты и преобразовать данные в нужную форму для структурированного и отсортированного хранилища.
Резюме
Другими словами, 3D-модель Big Data основана на трех измерениях: данные USABLE, которыми вы обладаете; правильная маркировка данных; и более быстрая обработка. Если эти трое заботятся, ваши данные могут быть легко обработаны или проанализированы, чтобы выяснить, что вы хотите.
Вышеприведенное объясняет обе концепции и трехмерную модель Big Data. Статьи, связанные во втором параграфе, окажут дополнительную поддержку, если вы новичок в этой концепции.
Если вы хотите что-то добавить, прокомментируйте.