ثورة البيانات الضخمة

إعداد: أ.د. أحمد صادق عبد المجيد- أستاذ تكنولوجيا التعليم بكلية التربية جامعة سوهاج

مقدمـة:

تتزايد كمية البيانات على كوكب الأرض بشكل كبير وذلك لعدة أسباب أبرزها: اختراع الويب، فأصبح العالم كله متصلًا بالإنترنت؛ حيث إن كل شيء نقوم به يترك أثرًا رقميًا مما أدى إلى ازدياد معدل نمو البيانات بسرعة. إن المصادر الرئيسة للبيانات الكبيرة Big Data هي: مواقع التواصل والإعلام وشبكاته الاجتماعية، وشبكات الاستشعار، والصور الرقمية، والفيديو، والهواتف المحمولة، وسجلات معاملات الشراء، وسجلات الويب، السجلات الطبية، والأرشيفات، والمراقبة العسكرية، والتجارة الإلكترونية، والأبحاث العلمية المعقدة، وغيرها. كل هذه المعلومات تبلغ Quintillion byte   من البيانات، ومن المتوقع بحلول عام (2020م) سيكون حجم البيانات حوالى 40 زيتا بايت (1 زيتابايت= 1021  بايت= 1000000000000000000000 بايت).

ماهية البيانات الضخمة:

يعد مصطلح “البيانات” من المصطلحات الواضحة في مفهومها ودلالتها لدى المتخصصين، فهم متفقون على أن البيانات عبارة عن حقائق أولية خام غير منظمة وغير مرتبطة ببعضها البعض، ولا تفهم أو يستفاد منها إلا بعد معالجتها، فهي بذلك المعطيات الأولية أو البكر التي تستخلص منها المعلومات، والتي بدورها تعرف بأنها البيانات المعالجة والمنظمة والمترابطة والمعدة للاستخدام واتخاذ القرارات، وهذا يعنى أن المعلومات التي يمكن الإفادة منها في اتخاذ القرارات وحل المشكلات تستخلص عادةً من البيانات.  

وتمثل البيانات الشكل الخام لأي محتوى نقوم بإنتاجه، وكمثال لذلك لو كان لدينا عشرة طلاب وقمنا بقياس أطوالهم وتم تسجيلها على ورقة، هذه الورقة تحوي بيانات. أما المعلومات فهي مخرجات أي عملية لمعالجة البيانات الخام التي تم الحصول عليها، بمعنى لو تم أخذ أطوال الطلاب العشر وقمنا بحساب المتوسط الحسابي لهم، يصبح هذا المتوسط معلومة لأنه يعطى مقياسًا مفيدًا، في حين أن البيانات مجرد أرقام فقط. 

غير أن البيانات المقصودة هنا هي البيانات التي يتم معالجتها عادًة بأدوات إدارة قاعدة البيانات أو بالطرق التقليدية لمعالجة البيانات كأجهزة الحاسب الآلي ومحركات البحث؛ لأنها بيانات مهيكلة ومنظمة وغالبًا ما تكون من نوع واحد وذات حجم يقاس بوحدات قياس البيانات مثل: الكيلو بايت Kilobyte، الميجابايت Megabyte، والجيجابايت Gigabyte، فالبرمجيات التقليدية يمكنها في العادة التعامل مع البيانات ذات الأحجام الكيلوبايت، والميجابايت (Megabyte and Kilobyte)، في حين أن أدوات البيانات الضخمة يكون لديها القدرة على التعامل مع مجموعة البيانات ذات الأحجام تيرابايت، وبيتابايت (Terabyte and petabyte). ويوضح جدول (1) وحدات قياس حجم البيانات مقارنةً بالبايت.

جدول1. وحدات قياس حجم البيانات

م

وحدة القياس

الحجم

1

بايت

Byte

8 بت

2

الكيلو بايت (KB)

Kilobyte

1024 بايت

3

الميجابايت  (MB)

Megabyte

1024 كيلو بايت

4

الجيجابايت (GB)

Gigabyte

1024 ميجابايت

5

التيرابايت (TB)

Terabyte

1024 جيجابايت

6

بيتابايت (PB)

Petabyte

1024 تيرابايت

7

اكسابايت (EB)

Exabyte

1024 بيتابايت

8

زيتابايت (ZB)

Zettabyte

1024 اكسابايت

9

يوتابايت (YB)

Yottabyte

1024 زيتابايت

10

زينوتابايت  (XB)

Xenottabyte

1024 يوتابايت

11

شايلينوبايت (SB)

Shilentnobyte

1024 زينوتابايت

12

دوميجمقروبايت (DB)

Domegemegrottebyte

1024 شايلينوبايت

وتعرف البيانات الضخمة (Big Data) أنها: مجموعة من البيانات الكبيرة والمعقدة لها خصائصها الفريدة مثل: الحجم، والسرعة، والتنوع، والتباين، وصحة البيانات، ولا يمكن معالجتها بكفاءة باستخدام التكنولوجيا الحالية والتقليدية لتحقيق الاستفادة منها. وتمكن التحديات التى ترافق هذا النوع من البيانات في توفيرها ومعالجتها وتخزينها وتحليلها والبحث فيها ومشاركتها ونقلها وتصويرها، بالإضافة إلى المحافظة على خصوصياتها ويوضح جدول (2) وصف للبيانات وحجمها والبرامج المستخدمة في معالجتها.

جدول 2. وصف البيانات وحجمها والبرامج المستخدمة في معالجتها

م

الحجم

البرامج المستخدمة في معالجة البيانات

التخزين

أمثلة

1

أقل من 10 جيجابايت

برنامج أكسل

ذاكرة حاسوب عادية

الآلاف من أرقام المبيعات

2

من 10 جيجا بايت- 1تيرابايت

برامج إدارة قواعد البيانات

جهاز واحد

الملايين من صفحات الويب

3

أكبر من تيرابايت

تقنية هادوب، برامج إدارة قاعدة البيانات الموزعة

تخزن في عدد من الأجهزة

المليارات من الضغط على شبكة الإنترنت

أى إن البيانات الضخمة هى بيانات تقاس بوحدات قياس عالية جدًا مثل: البيتابايت Petabyte، والإكسابايت Exabyte، والزيتابايت Zettabyte الذى يساوي تريليون جيجابايت، وهذه البيانات هى مجموعة ضخمة من البيانات المعقدة والمتداخلة بشدة (الدردشة على الفيسبوك، والتغريدات، والرسائل النصية، والإعجاب بمنتج معين، ومشاركة فيديو مع الأصدقاء حجم تداول الأسهم، وأخبار الطقس وغيرها) مما يصعب معالجتها وإدارتها باستخدام أداة واحدة من أدوات قواعد البيانات أو بالطرق التقليدية لمعالجة البيانات، وهى تنمو بوتيرة متسارعة للغاية، ففي كل يوم تضاف أدوات أكثر وأكثر لإدخال البيانات كالهواتف الذكية، ومستشعرات الفضاء، ومحددات المواقع الجغرافية، وقارئات بيانات السير والمرور، ومدخلات الطلاب، والموظفين، والعمال في العالم كله.

 كما تمتلك تقنية البيانات الضخمة إمكانية تحليل بيانات مواقع الإنترنت وأجهزة الاستشعار، وبيانات شبكات التواصل الاجتماعي؛ حيث إن تحليل هذه البيانات يسمح باستكشاف الارتباطات بين مجموعة هذه البيانات المستقلة لكشف جوانب عديدة مثل: التنبؤ باتجاهات الشركات، ومكافحة الجريمة، كما توفر هذه التنبؤات لصناع القرار أدوات مبتكرة لفهم أفضل للظروف والمعطيات ومن ثم اتخاذ القرارات الصحيحة لتحقيق الأهداف المرجوة.

وتبرز التحديات أمام أدوات إدارة قواعد البيانات التقليدية في التعامل مع البيانات المتنوعة والسريعة؛ حيث كانت قواعد البيانات التقليدية تتعامل مع المستندات النصية والأرقام فقط، أما البيانات الضخمة فتحوى اليوم على أنواع جديدة من البيانات التى لا يمكن تجاهلها مثل: الصور، والفيديو، والمقاطع الصوتية، والنماذج ثلاثية الأبعاد، وبيانات المواقع الجغرافية وغيرها. 

أنواع البيانات الضخمة:

يمكن تصنيف البيانات الضخمة إلى ثلاثة أنواع:

1- البيانات المهيكلة:

هى بيانات منظمة في شكل جداول أو قواعد بيانات، وهى على عكس البيانات غير المهيكلة التي يصعب معالجتها باعتبارها تشكل النسبة الأكبر من البيانات في العالم، والبيانات المنظمة أو المهيكلة تتبع مخطط قاعدة بيانات محددة مسبقًا، وتكون البيانات المنظمة على شكل حقول مثبتة ومنسقة في سجل أو ملف وتكون في قواعد البيانات العلاقية، التي تتكون من جداول قواعد البيانات، وفيها يتم استخدام الجداول لتنظيم المعلومات في صفوف وأعمدة، وتكون هذه الجداول على أنواع مثل: الأرقام، والتواريخ، والعناوين وذلك على نحو سلسة من الأعمدة، والمخطط يحدد كيفية تخزين البيانات والتحكم في الوصول إليها، وسهولة معالجتها.

2- البيانات غير المهيكلة:

هى بيانات إلكترونية لا يمكن تصنيفها بسهولة كالصور، والرسوم البيانية، كما تعد المشاركات المكتوبة في مواقع التواصل الاجتماعي، والفيديوهات، والصور، والمدونات الإلكترونية ورسائل البريد الإلكتروني كل هذه البيانات تعد مصدرًا غنيًا بالمعلومات التي تنمو بوتيرة متسارعة غير مسبوقة. فعلى سبيل المثال يغرد (175) مليون تغريدة يوميًا، ويضم الموقع أكثر من (465) مليون حساب، ويتم إنشاء 571 موقع جديد كل دقيقة تقريباً، وإنشاء (2.5) كوينتليون من البيانات غير المنظمة في العالم يوميًا من مصادر مختلفة مثل: أجهزة الاستشعار عن بعد، ووسائل التواصل الاجتماعي، والصور الرقمية، والفيسبوك.

وهذا يعنى أنه لا يمكن استخدام أدوات تحليل البيانات القديمة، وإدارة قواعد البيانات التقليدية مع هذه البيانات؛ لأنها ليست منتظمة وفق الهيكل الذى يتعامل معها كالجداول مثل: منصات التدوين، التي لها عديد من العناصر المنظمة منها: التاريخ، ووقت نشر المحتوى، والروابط التشعبية؛ مما يجعل عملية البحث والتحليل أكثر صعوبة بكثير من البيانات المهيكلة، إلا أنه لا بد من الاهتمام بهذه البيانات بالرغم من أنها غير منظمة، فمن خلالها تستطيع المؤسسات المختلفة أن تشق طريقها في الحد من الغش، ومنع الجريمة، والتحري عن الأعمال الإرهابية وغير ذلك من المجالات الأخرى.

3- البيانات شبة مهيكلة:

هي بيانات قريبة من البيانات المنظمة، إلا أنها لا تكون في جداول أو قواعد بيانات، وتكون هذه البيانات على شكل نص على صفحة ويب أو معلومات خاصة باجتماع معين أو الملصقات التي تحتوي على معلومات حول عروض فنية وزمانها ومكانها، وسعر التذاكر لحضور هذه العروض، والمكان الذي تشترى منه التذاكر، أيضًا نوع السيارة المعروضة للبيع مثل: لونها، ونوعها، وسعرها، وسنة الصنع وغيرها.

أي أن البيانات الشبكة مهيكلة هي البيانات التي تكون غير منظمة أو غير مكتملة، ويكون لها هيكل وهي قابلة للتغير بشكل سريع وغير متوقع ولذا يطلق عليها بالبيانات شبة هيكلية أو شبة منظمة. وتعتمد هذه البيانات على لغة (XML) ووهى اختصار لـ (Extendable Markup Language) أي لغة الترميز القابلة للتوسع، وقد صممت هذه اللغة من أجل نقل البيانات وتخزينها. 

خصائص البيانات الضخمة:

في عام (2001م) قام ” دوج لاني Doug lany” محلل مجموعة META Group (المعروقة الآن باسم جارتنر المؤسسة الرائدة في مجال تكنولوجيا المعلومات) بتعريف تحديات نمو البيانات بوصفها متغيرًا ثلاثي الأبعاد لوصف البيانات الضخمة وهذه الأبعاد هى:

1- الحجم Volume:

من المتوقع بحلول عام (2020م) سيحتوي الفضاء الإلكتروني على ما يقرب من (40,000) (زيتابايت) من البيانات الجاهزة للتحليل واستخلاص المعلومات من ملف نصي بسيط يقدر حجمه بعدة كيلوبايتات مرورًا بمقطع صوتي بالميجابايت أو فيديو بالجيجابايت إلى ملايين الهواتف الذكية التي تبث كميات ضخمة من البيانات إلى شبكات الهواتف كل ثانية.

2- السرعة Velocity:

لمعالجة مجموعة صغيرة من البيانات المخزنة في صورة بيانات مهيكلة في قواعد بيانات أو ملف أكسل كانت الشركات تقوم بتحليل فيما يسمى بالـ (Batch Process) أو العمليات المتقطعة؛ حيث كان يتم تحليل كل مجموعة بيانات تلو الأخرى في انتظار وصول النتائج مع الازدياد الضخم في حجم البيانات وسرعة تواترها، أصبحت الحاجة إلى نظام يضمن سرعة فائقة في تحليل البيانات الضخمة في الوقت الحقيقي (Real Time) أو سرعة تقارب الوقت الحقيقي أكثر إلحاحًا، أدت تلك الحاجة إلى ابتكار تكنولوجيا مثل: SAP HANH , Apache Hadoop.

3- التنوع Variety:

مع ازدياد مستخدمي الإنترنت، والهواتف الذكية، وشيكات التواصل الاجتماعي المختلفة تغير شكل البيانات المألوفة من بيانات مهيكلة في قواعد البيانات إلى بيانات غير مهيكلة تتضمن عددًا كبيرًا من الصيغ مثل: الصور، ومقاطع الفيديو، والرسائل القصيرة، وبيانات الـ(GPS)  والوثائق بصيغها المتعددة مثل: PDF, MS word.

4- الموثوقية Veracity:

لقد أضافت شركة (IBM) هذا البعد، ويعنى: الدقة، والجودة والموثوقية للبيانات لأصحاب القرار، لذلك فإن البيانات الضخمة تتطلب أشكالًا وطرقًا جديدة لمعالجة بياناتها بما يعزز صناعة القرار الصحيح في المؤسسات المختلفة.

والسؤال المطروح في هذا الجانب: هل نعتبر البيانات التي حجمها (100) جيجابايت، بيانات ضخمة؟ الإجابة على عن هذا السؤال يعتمد على صفتي التسارع والتنوع للبيانات الضخمة، فمثلًا إذا كنا نريد الحصول على بيانات بمعدل (100) جيجابايت في الدقيقة ونحتاج إلى معالجتها أو تخزينها بالسرعة نفسها، فيمكن أن نطلق عليها بيانات ضخمة. 

تحليل البيانات الضخمة في مؤسسات التعليم:

متى كانت آخر مرة قمت فيها بتنظيف جهاز الحاسب الآلي الخاص بك وتنظيمه؟ كم عدد المرات التي قمت فيها بترتيب الملفات المتناثرة بشكل فوضوي على سطح الحاسب وبعد فترة رجعت فوضى الملفات ثانية؟ هل جربت أن تحفظ ملفًا على سطح المكتب ولا تراه بسبب الملفات المكدسة جنباً إلى جنب؟ أعرف شعور القهر الذي تشعر به عندما تكتشف أنه في أثناء تنظيف الجهاز، قمت بحذف ملفات ذات أهمية بالنسبة لك، الغالبية العظمى منا يشعر بالإحباط عندما نبدأ بحذف الملفات بشكل عشوائي دون النظر إلى البيانات داخل الملف، الأمر الذي قد يتسبب في كثير من المشاكل. ربما يوجد من يستطيعون الحفاظ على ملفاتهم وبياناتهم منظمة على الأجهزة الشخصية الخاصة بهم، ولكن تخيل الفوضى التي من شأنها أن تحدث في بيئة أكبر من ذلك مثل مؤسسات التعليم العالي.

فمؤسسات التعليم العالي، تتعامل مع الكثير من الأجهزة المتصلة بالإنترنت في الحرم الجامعي، كما أن اعتماد الجامعات على نظام (أحضر جهازك الخاص بك)، يعنى أن يتم السماح للطلاب وللمعلمين باستخدام أجهزتهم الشخصية لإتمام مهامهم المتعلقة بالتعليم، كما يتم السماح لهم بالاتصال بشبكة المؤسسة الداخلية؛ مما يؤدى إلى طوفان من البيانات التي من الصعب التعامل معها من خلال الأساليب التقليدية.

فالبيانات في مؤسسات التعليم العالي تتدفق من كل الاتجاهات عبر تطبيقات الإنترنت والتمارين المستندة إلى البرامج والفصول الدراسية عبر الإنترنت، والاختبارات الإلكترونية، ووسائل الإعلام الاجتماعية، والمدونات، ومشاركات الطلاب الإلكترونية وغيرها. كما توجد طفرة من البيانات العامة مع زيادة شعبية استخدام القياس المقارن Benchmarking على الإنترنت الذي يشمل الطلاب، والأساتذة والمنهج؛ حيث كل هذه البيانات تخلق ضغطًا على البنية التحتية الحالية لتقنية المعلومات.

ويمكن الاستفادة من تحليل هذه الأنواع من البيانات الضخمة في مؤسسات التعليم العالي، في توفير مجموعة متنوعة من الفرص، والخيارات، بهدف تحسين تعليم الطلاب وتعلمها من خلال التعلم التكيفي أو التعليم القائم على الكفاءة؛ مما ينتج عنه تعلم أفضل نتيجة لتشخيص أسرع وأكثر تعمقًا لاحتياجات الطلاب والصعوبات التي تواجههم في أثناء عملية التعلم، بما في ذلك تقييم مهارات الطلاب في مجال التفكير المنظم، والتعاون، وحل المشكلات في سياق عميق، وتقييم أصيل لمجال المعرفة وموضوعها، بالإضافة لتحديد العوامل التى تساعد في تحسين نجاح الطلاب، كذلك توفر البيانات الضخمة أدوات حديثة وفعالة لقياس أداء الطلاب للمهام التعليمية ويمكن أن تساعد في تصميم بيئات تعلم مخصصة لذوى الاحتياجات الخاصة، ويمكن أن تعطى تحليلًا واضحًا لردود الفعل الفردية، والجماعية لمجموعة من القضايا التعليمية. 

والبرامج التقليدية المعمول بها مثل: (Excel, Spss) لا يمكنها الاستجابة لمطالب البيانات الحالية وهذا هو السبب الذى جعل عديدًا من مؤسسات التعليم العالي لم تحصل على القيمة الحقيقية للبيانات الضخمة؛ لأنها لا تملك الأدوات الجيدة التى تستخدم لتحليل البيانات الضخمة، وهذه المشكلة تزداد سوءًا مع استمرار وحدات تخزين البيانات في الازدياد. فالمؤسسات التعليمية التي تفشل في توظيف البيانات الضخمة ستبقى في مؤخرة التصنيفات الجامعية لأن البيانات هي الوقود الاستراتيجي الذي يغذى القرارات إلى الأمام.

ويعد برنامج هادوب (Hadoop) من البرامج التى تستخدم في تحليل البيانات الضخمة، وهو برنامج مفتوح المصدر لإطار عمل، يمكن من خلاله تخزين كميات ضخمة من البيانات. ولقد أصبح (هادوب) التكنولوجيا الرئيسة لممارسة الأعمال المختلفة التعليمية، والتجارية، والصناعية، والطيران وغيرها من المجالات، بسبب الزيادة المستمرة في حجم البيانات وتنوع أشكالها، كما أن نموذج الحوسبة الموزعة لدية، يمكن من تحليل البيانات بسرعة كبيرة.

لذا أصبح معلومًا لدى مؤسسات التعليم العالي، بأن عملية اقتناء البيانات التي تتدفق إليها وحفظها، تمكنها من القيام بعمليات تحليلية تؤدى إلى فائدة كبيرة، فمنذ عشرات السنين، وقبل ظهور مصطلح (البيانات الضخمة) بعقود، كانت الكثير من المؤسسات التعليمية تستخدم أنظمة تحليل بدائية للقيام بعمليات تحليلية، لكن التميز الذى تقدمه اليوم الطرق الجديدة لتحليل البيانات الضخمة، هو عامل السرعة والفعالية، ففى السابق كانت البيانات تجمع أولًا، ثم يجرى القيام بتحليلها لاتخاذ قرارات مستقلة، أما اليوم، فقد أصبحت عملية التحليل تتم بسرعة عالية جدًا وبشكل آني؛ مما يمكن المؤسسات التعليمية من امتلاك قيمة تنافسية، كانت تفتقر إليها من قبل، فالقيام بهذا التحليل يؤدى إلى أرباح أكبر، ويجعل الطالب والمعلم أكثر رضى.  

الانتقادات التي وجهت إلى البيانات الضخمة:

شكك بعض العلماء في أهمية مجال البيانات الضخمة، بل واعتبروه مجرد وهم وليس له أي أهمية، للأسباب التالية: 

1- السلوك البشري:

لا يسير السلوك البشري على قواعد أو معطيات ثابتة، فقد تتغير بين الحين والآخر، حسب طباع الشخص نفسه التي قد تتغير بين الحين، والآخر، والسلوك البشري ليس مستقرًا بالدرجة الكافية، لذلك فإن النتائج قد لا تكون صحيحة ولا يمكن الوثوق بها.

2- ضعف الدقة:

المعلومات التي قد يتم تجميعها قد لا تكون دقيقة بالصورة الكافية، فعملية تجميع المعلومات تتسم أحيانًا بالعشوائية، فقد يتم تجميع معلومات من شخص من (الرياض) مع شخص من (جدة) أو ربما قد تختلط معلومات شخص آخر؛ لذلك قد يتسبب هذا في وجود تحليلات خطأ لا تتسم بالدقة الكافية.

3- السلوكيات غير الخلقية:

بعض الشركات قد تتجاوز كثيراً في مسألة تجميع المعلومات لدرجة قد تصل إلى انتهاك خصوصيات الأخرين، فالمعلومات الشخصية أكثر أهمية لدى هذه الشركات؛ لأن البيانات أو المعلومات العامة، قد تكون منتشرة ويسهل الحصول عليها، في حين هذه المعلومات قد تكون صعبة كثيرًا؛ لذلك تسعى الشركات ببعض الطرق للوصول لأكبر قدر من المعلومات الأكثر خصوصية للمستخدم نفسه.

4- مضيعة للمال:

يرى بعض العلماء أن عمليات تجميع البيانات الضخمة وتخزينها وتحليلها تكلف أموالًا ضخمة قد لا تحقق المنفعة الكاملة للشركات، وأنه من الأفضل إنفاق هذه الأموال على الأبحاث والتطوير، فهناك بعض الشركات تقود حركة التطوير وتشجع المستخدمين على استخدامات معينة؛ لذلك فإن نشاطات المستخدمين لا تعبر بالضرورة عن معلومات مفيدة، بل هى نتاج لعمليات تطوير أو إنشاء ابتكارات جديدة.

المراجع

–  إسماعيل، يوسف أحمد (2018). الوعي بمفهوم البيانات الضخمة Big data لدى العاملين في المكتبات الأكاديمية: دراسة حالة لمكتبة الجامعة الأردنية. المؤتمر الرابع والعشرون لجمعية المكتبات المتخصصة، 1-28.   

– الباز، عدنان مصطفى (2018). البيانات الضخمة ومجالات تطبيقها. كلية الحاسبات وتقنية المعلومات، جامعة الملك عبد العزيز.

– البزال، زينب (2017). البيانات الضخمة إعصاء يحتوي العالم. أرشيفو، مركز أوال للدراسات والتوثيق. 

– المرسي، ثروت العليمى (2018). دور البيانات الحكومية المفتوحة الضخمة في تمكين التحول نحو لحكومة الذكية – دراسة استكشافية مقارنة. المؤتمر الرابع والعشرون لجمعية المكتبات المتخصصة، 1-42.

– حايك، هيام (2015). تحليل البيانات الكبيرة في مؤسسات التعليم العالي. من موقع http://blog.naseej.com.

– عثمان، عبد الرحمن (2017). تعلم هدوب. جامعة أم القري، كلية الحاسب بالقنفذة.

– على، إسلان أبو القاسم (2017). استخدام البيانات الضخمة في وسائل النقل.

– قيراطي، هناء، دحمون، أسامة (2017). توظيف البيانات الضخمة في الشركات التقنية وخصوصية المستخدم. رسالة ماجستير، كلية علوم الإعلام والاتصال وعلم المكتبات، جامعة 8 ماي 1945.

https://www.tech-wd.com/wd/2013/07/24/what-is-big-data/

 

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى