Leave a comment

dburtsev October 26 2024, 12:56:51 UTC
> Объясните мне, как он из вот этих вот миллионов гигабайт данных, проносящихся в секунду по оптоволоконным магистралям, хотя бы вычленит полезную информацию, которой там будет одна стомиллиардная процента от общего трафика? Очевидно, что никак, даже если у него будут пресловутые ключи шифрования.

Цитата: Больши́е да́нные (англ. big data, [ˈbɪɡ ˈdeɪtə]) - обозначение структурированных и неструктурированных данных огромных объёмов и значительного многообразия, эффективно обрабатываемых горизонтально масштабируемыми программными инструментами, появившимися в конце 2000-х годов и альтернативных традиционным системам управления базами данных и решениям класса Business Intelligence.
В широком смысле о «больших данных» говорят как о социально-экономическом феномене, связанном с появлением технологических возможностей анализировать огромные массивы данных, в некоторых проблемных областях - весь мировой объём данных, и вытекающих из этого трансформационных последствий.
В качестве определяющих характеристик для больших данных традиционно выделяют «три V»: объём (англ. volume, в смысле величины физического объёма), скорость (velocity в смыслах как скорости прироста, так и необходимости высокоскоростной обработки и получения результатов), многообразие (variety, в смысле возможности одновременной обработки различных типов структурированных и полуструктурированных данных); в дальнейшем возникли различные вариации и интерпретации этого признака...

С точки зрения информационных технологий, в совокупность подходов и инструментов изначально включались средства массово-параллельной обработки неопределённо структурированных данных,

Reply


Leave a comment

Up