ဒီအပိုင်းမှာ ဒေတာတွေဘယ်ကလာသလဲ ဆိုတဲ့ အကြောင်းအရာနဲ့ ဒေတာတွေကို ခွဲခြမ်းစိတ်ဖြာလေ့လာရာမှာအသုံးပြုတဲ့ Statistical Approaches (ချဉ်းကပ်ပုံ)တွေအတွက် ဒေတာတွေဘယ်ကလာသလဲဆိုတဲ့အချက်က ဘာကြောင့် အရေးကြီးသလဲဆိုတာကို ဆွေးနွေးပါမယ်။
Data Analysis ပြုလုပ်ရာမှာ ဒေတာတွေဘယ်ကလာသလဲဆိုတာကို ကောင်းကောင်းသိဖို့လိုပြီးတော့ ဒေတာတွေက ဘယ်လိုဖြစ်ပေါ်လာသလဲဆိုပြီး စဉ်းစားတဲ့နေရာမှာ မဖြစ်မနေမေးဖို့လိုအပ်တဲ့ အရေးကြီးမေးခွန်းတွေလည်း ရှိကြပါတယ်။
Research Study ပြုလုပ်ချိန်မှာ ကောက်ယူတဲ့ဒေတာတွေက အမျိုးမျိုးဖြစ်နိုင်ပါတယ်။
(Different Types of Data)
ယေဘုယျအားဖြင့် အဓိကဒေတာအမျိုးအစား နှစ်ခု ရှိပါတယ်။
- Organic (or) Process Data (သဘာဝအရဖြစ်ပေါ်သောဒေတာ)
- 'Designed' Data Collection (ဒီဇိုင်းထုတ်စီမံပြီး ကောက်ယူသောဒေတာ)
Organic (or) Process Data အကြောင်းပြောမယ်ဆိုရင် ဒီဒေတာတွေက ကွန်ပြူတာသတင်းအချက်အလက်စနစ်ကနေ ထုတ်ပေးလိုက်တဲ့ ဒေတာတွေ (ဒါမှမဟုတ်) ဗီဒီယိုနဲ့ အသံ Recordings တွေကနေ ထုတ်ယူထားတဲ့ ဒေတာတွေ ဖြစ်ပါတယ်။
အဓိကအချက်က ဒီဒေတာတွေဟာ Process တွေကနေ သဘာဝအတိုင်း ထွက်ပေါ်လာတဲ့ ဒေတာတွေဖြစ်ပြီး အချိန်ကာလာအပိုင်းအခြားအပေါ်မူတည်ပြီး ဒေတာတွေက များသထက် များလာနိုင်ပါတယ်။
ဥပမာ - ဘဏ်ရဲ့ ငွေလွှဲ၊ ငွေသွင်း စာရင်း (Transactions) ဒေတာတွေ၊ စတော့ဈေးကွက်ဒေတာတွေ စတာတွေပဲ ဖြစ်ပါတယ်။ ဒီဒေတာတွေဟာ အချိန်နဲ့အမျှ အပြောင်းအလဲတွေ အများကြီးဖြစ်နေတဲ့အတွက် တဖြည်းဖြည်းနဲ့ အရမ်းများပြားတဲ့ ဒေတာတွေ ဖြစ်လာပါတယ်။
Netflix ကြည့်ရှုတဲ့အခါမှာ Recommended for you ဆိုပြီး ကြည့်ရှုသူတွေနှစ်သက်မယ်ထင်တဲ့ ရုပ်ရှင်တွေပြသပေးတဲ့ စနစ်ကို မြင်ဖူးမှာပါ။ ဒီလို ပြသပေးတာက Netflix မှာ User တစ်ဦးချင်းစီရဲ့ Viewing History တစ်ခုလုံးကို ဒေတာသိမ်းဆည်း ထားတဲ့အတွက် ဖြစ်ပါတယ်။ ဘယ်အချိန်မှာ ဘယ်ဇာတ်ကားတွေကို ကြည့်ခဲ့တယ်၊ ဘာတွေကိုတော့ ကြည့်ပြီးသွားပြီ စသဖြင့် သင်ကြည့်ရှုသမျှတွေကို မှတ်တမ်းတင်ထားတဲ့အတွက် ဒါတွေက ကြီးမားတဲ့ Data Set တစ်ခု ဖြစ်လာပါတယ်။
ဒီ Data Set ဟာ အလိုအလျောက် သဘာဝအရ ဖြစ်ပေါ်လာတဲ့ ဒေတာ(Organic Data) ဖြစ်ပြီးတော့ ဒီဒေတာတွေဟာ မိမိရဲ့ ကြည့်ရှုမှုတွေပေါ်မှာ အခြေခံပြီး ဖြစ်လာတဲ့ ဒေတာတွေဖြစ်ပါတယ်။
Web Browser Activity လိုမျိုးဆိုရင် ကျွန်တော်တို့ အင်တာနက်အသုံးပြုတဲ့အခါမှာ ဝက်ဘ်ဆိုဒ်အမျိုးမျိုးကို အသုံးပြုလေ့ရှိပါတယ်။ ဒီအသုံးပြုမှုဒေတာတွေကိုလည်း မှတ်တမ်းတင်ထားနိုင်ပါတယ်။ ဘယ် Web Pages တွေကို သွားရောက်ကြည့်ရှုတယ်၊ အချိန်ဘယ်လောက်ကြာကြည့်ရှုတယ်၊ တစ်ပတ်မှာ ဘယ်နှကြိမ်လောက်ကြည့်တယ် စသဖြင့် ကိုယ့်ရဲ့လုပ်ဆောင်ချက်တွေက ဒေတာတွေအဖြစ် မှတ်တမ်းရှိနေပါတယ်။ တစ်ဦးတည်းရဲ့ အင်တာနက်အသုံးပြုမှုတောင်မှ ဒီလိုဒေတာအများကြီး ဖြစ်ပေါ်လာတယ်ဆိုရင် အင်တာနက်အသုံးပြုသူ ဘီလျံချီတဲ့အရေအတွက်ရဲ့ ဒေတာတွေ ဘယ်လောက်များမယ်ဆိုတာကို စဉ်းစားကြည့်နိုင်ပါတယ်။
နောက်တစ်ခုက အားကစားပြိုင်ပွဲတွေ ဖြစ်ပါတယ်။ ဥပမာ - ဘောလုံးပွဲတွေမှာ ဆိုရင် သက်ဆိုင်ရာပြိုင်ပွဲ၊ အသင်းနဲ့ ကစားသမားတွေရဲ့ ဒေတာတွေကို အမြဲတမ်းကောက်ယူနေကြပါတယ်။ ဂိုးကန်သွင်းမှု၊ ဂိုးပေါက်တည့်မှု၊ ပေးပို့မှုရာခိုင်နှုန်း၊ စသဖြင့် ဒေတာတွေ အမျိုးမျိုးပါပဲ။ ပြိုင်ပွဲတွေကလည်း အများအပြားရှိတဲ့အတွက် ထွက်လာတဲ့ ဒေတာတွေကလည်း အများအပြားပါပဲ။ ဒီလိုဒေတာတွေဟာ Process တစ်ခုကြောင့် ဖြစ်ပေါ်လာတဲ့ Organic ဒေတာတွေပဲ ဖြစ်ပါတယ်။ လူတွေက ဒီဒေတာတွေရဲ့ နောက်ကွယ်မှာရှိနေတဲ့ ဆက်နွယ်မှု Pattern တွေကို တွေ့ရှိဖို့ ကြိုးစားရှာဖွေလေ့ရှိပါတယ်။
အပူချိန်နဲ့ လေထုညစ်ညမ်းမှုကို နိုင်ငံအနှံ့ မြို့အနှံ့ တိုင်းတာခြင်းတွေကလည်း အချိန်နဲ့အမျှ တိုင်းတာပြီး ရရှိလာတဲ့ Organic ဒေတာတွေပဲ ဖြစ်ပါတယ်။ ဒီဒေတာတွေကနေပြီး ရာသီဥတုဘယ်လိုတွေ ဖြစ်ပေါ်လာမယ်ဆိုတာကို ကြိုတင်ခန့်မှန်းကြတာ ဖြစ်ပါတယ်။
အခုပြောပြခဲ့သမျှ အကြောင်းအရာ Processes တွေအားလုံးက ဒေတာတွေကို သဘာဝအရ ထုတ်ပေးနေတဲ့ အဖြစ်အပျက်တွေဖြစ်ပြီး တကယ့်ကိုများပြားတဲ့ ဒေတာတွေကို ဖြစ်ပေါ်လာစေပါတယ်။ ဒီလိုများပြားလှတဲ့ ဒေတာတွေကို Big Data လို့ ခေါ်ဝေါ်ကြခြင်း ဖြစ်ပါတယ်။
ဒီလိုများပြားတဲ့ ဒေတာတွေကို ပိုပိုပြီးတော့ အချိန်ကုန်၊ လူပင်ပန်းသက်သက်သာသာနဲ့ လေ့လာလို့ရတဲ့ နည်းလမ်းတွေ ပေါ်ပေါက်လာအောင် Statisticians တွေနဲ့ Data Scientists တွေက လုပ်ဆောင်နေကြရပါတယ်။ ဒါပေမဲ့ သုတေသနဆိုင်ရာမေးခွန်းတွေကို စဉ်းစားချိန်မှာ ဒီ Big Data Sets တွေကို မဖြစ်မနေ ကိုင်တွယ်ဖို့ လိုအပ်လာပါတယ်။
ဘာကြောင့်လဲဆိုတော့ ဒီ Big Data တွေကို အသုံးပြုတဲ့အခါမှာ Computational Resources တွေအများကြီး လိုအပ်ပါတယ်။ Data Scientists တွေဟာ ဒီ Big Data တွေထဲမှာဖြစ်ပေါ်နေတဲ့ ဦးတည်ရာ(Trends)တွေကို လေ့လာဖို့နဲ့ ဒေတာတွေရဲ့ စိတ်ဝင်စားစရာကောင်းတဲ့ ဆက်နွယ်မှု(Relationships)တွေကို ဖော်ထုတ်ဖို့ ကြိုးစားကြရပါတယ်။ ဒီလိုလုပ်ဆောင်တာကို Data Mining လုပ်တယ်လို့ ခေါ်ပါတယ်။
ဒါပေမဲ့လည်း ဒီ Big Data တွေကို ခွဲခြမ်းစိတ်ဖြာ(Analysis)လုပ်လို့ရအောင် လုပ်ဆောင်ဖို့ အတွက် စနစ်တကျမရှိပြန့်ကျဲနေတဲ့ ဒေတာတွေကို ပြန်လည်စနစ်တကျဖြစ်အောင် လုပ်ဆောင်ရတာကိုက Computational Resources တွေ အများကြီး လိုအပ်ပါတယ်။ ဒီလို ဒေတာတွေကို Format တကျဖြစ်အောင် လုပ်ဆောင်ဖို့အတွက် Computer Science နဲ့ Statistical Methodology ပိုင်းမှာ သေသေချာချာ လေ့ကျင့်ထားတဲ့ လူတွေ အများကြီး လိုအပ်ပါတယ်။ ဒါပေမဲ့ ဒီလိုမျိုး ဒေတာတွေကို ပြန်ပြီး Format စဉ်ရတဲ့အလုပ်က စိတ်ဝင်စားစရာလည်း ကောင်းနေပြန်ပါတယ်။ ဒီလိုများပြားတဲ့ ဒေတာတွေကို ဘယ်လို စနစ်တကျဖြစ်အောင် ပြန်လုပ်မလဲဆိုတာက တကယ့်ကို စိတ်ဝင်စားစရာကောင်းတဲ့အပိုင်း ဖြစ်ပါတယ်။
Designed Data Collection
နောက်ထပ်ကျွန်တော်တို့အသုံးပြုရမဲ့ ဒေတာအမျိုးအစားတစ်မျိုးကတော့ စနစ်တကျဒီဇိုင်းထုတ်ပြီးမှ ကောက်ယူရရှိထားတဲ့ ဒေတာ(Data from "Designed Data Collection)တွေပဲ ဖြစ်ပါတယ်။
ဒီဒေတာတွေက ဘောလုံးပွဲတစ်ပွဲကနေရရှိလာတဲ့ ဒေတာတွေလိုမျိုး Organic ဒေတာတွေ ဖြစ်နေဖို့မလိုပါဘူး။ ဒီဒေတာတွေဟာ ကိုယ်လေ့လာနယ်တဲ့ သုတေသနအကြောင်းအရာတစ်ခုအတွက် တိုက်ရိုက်လေ့လာမှုတွေကနေရလာတဲ့ ဒေတာတွေ ဖြစ်ဖို့တော့ လိုအပ်ပါတယ်။ ဒါ့ကြောင့် ကျွန်တော်တို့လေ့လာချင်တဲ့ဒေတာရင်းမြစ်/
လူတွေထဲကနေ ကိုယ်သိချင်တဲ့ အကြောင်းအရာကိုဖြေကြားနိုင်မဲ့သူတချို့ကို စနစ်တကျဒီဇိုင်းထုတ်ပြီး နမူနာကောက်ယူကြရပါတယ်။ ဥပမာ - SAI SAI နှုတ်ခမ်းနီနဲ့ ပက်သက်ပြီး ဘယ်လိုမြင်သလဲ ဆိုတဲ့ သုတေသနမေးခွန်းအတွက် မြန်မာနိုင်ငံမှာရှိတဲ့ အမျိုးသမီးတွေအကုန်လုံးကို လိုက်မေးပြီး ဒေတာလိုက်ကောက်နေလို့ မရပါဘူး။ ဒီတော့ ငယ်ရွယ်လွန်း၊ အသက်ကြီးလွန်းတဲ့ အမျိုးသမီးတွေနဲ့ နှုတ်ခမ်းနီမဆိုးတဲ့ အမျိုးသမီးတွေကို နမူနာကောက်မဲ့ စာရင်းထဲကနေ ဖယ်ထုတ်ရပါမယ်။ သူတို့ဟာ ကိုယ့်ရဲ့သုတေသနမေးခွန်းနဲ့ တိုက်ရိုက်မသက်ဆိုင်တဲ့အတွက် ဖြစ်ပါတယ်။ ဒီနှုတ်ခမ်းနီကို ဆိုးဖူးတဲ့သူတွေကိုသာ ရွေးချယ်ပြီး "ဘယ်လိုမြင်သလဲ" ဆိုတဲ့ သုတေသနမေးခွန်းကို မေးမြန်းရမှာဖြစ်ပါတယ်။ SAI SAI နှုတ်ခမ်းနီဆိုးတဲ့သူကလည်း လူတစ်သိန်းလောက်ရှိနေတယ်ဆိုရင် လူတစ်သိန်းလုံးကို လိုက်မမေးနိုင်တဲ့အတွက် လူတစ်ထောင်လောက်ကိုသာ ရွေးချယ်မေးမြန်းမှာ ဖြစ်ပါတယ်။ ဒီလို နမူနာထုတ်ယူလိုက်တဲ့လူတစ်ထောင်ကိုမေးမြန်းပြီးရလာတဲ့ ဒေတာတွေကို သုံးသပ်ပြီးတော့မှ SAI SAI နှုတ်ခမ်းနီကို အသုံးပြုသူတွေအားလုံးရဲ့ အမြင်က ဘယ်လိုရှိနိုင်တယ်ဆိုပြီး ကောက်ချက်ချအဖြေထုတ်ရမှာ ဖြစ်ပါတယ်။
ဒီလို မူလဒေတာအရင်းအမြစ်တွေထဲကနေ ကိုယ်သိချင်တဲ့အကြောင်းအရာနဲ့ တိုက်ရိုက်ဆက်စပ်မဲ့သူတွေကိုသာ စနစ်တကျဒီဇိုင်းဆွဲရွေးချယ်ထုတ်ယူမေးမြန်းပြီးမှ ရလာတဲ့ ဒေတာတွေက Data from "Designed Data Collection" ပဲ ဖြစ်ပါတယ်။
နောက်ဥပမာတစ်ခုက အကြောင်းအရာတစ်ခုနဲ့ ပက်သက်လို့ လူတွေက သူတို့ရဲ့အမြင်ကို Facebook မှာ ဘယ်လိုဖော်ပြကြသလဲဆိုတာ သိချင်တယ်ဆိုရင် Facebook ပေါ်မှာ လူတွေဟာ Post တွေအများကြီး တင်နေကြတဲ့အတွက် ကိုယ်သိချင်တဲ့အကြောင်းအရာနဲ့ သက်ဆိုင်တဲ့ Post ကိုသာ ရွေးထုတ်ယူရမှာဖြစ်ပြီး တကယ့်ကိုစနစ်တကျ ဒီဇိုင်းထုတ် ဒေတာကောက်နိုင်မှ အဆင်ပြေမှာ ဖြစ်ပါတယ်။
ဒီလိုကိစ္စမျိုးဆိုရင် Facebook အသုံးပြုသူတွေဆီက နေ့စဉ် သဘာဝအတိုင်းဖြစ်ပေါ်နေတဲ့ Organic ဒေတာတွေ(Posts, Like, Comment, Share, React) ထဲကနေ ကိုယ်လိုချင်တဲ့အကြောင်းအရာနဲ့သက်ဆိုင်တဲ့ဒေတာတွေကိုသာ Designed Data Collection အဖြစ် ရယူရတယ်ဆိုတာကို မြင်နိုင်ပါတယ်။
Common Features of Designed Data Collection
Designed Data Collection တွေမှာ အတွေ့ရများတဲ့ Features တွေကတော့
- ဒေတာရင်းမြစ်(Populations)ထဲကနေ နမူနာကောက်ယူခြင်း (ဒီဇိုင်းဆွဲထားတဲ့ မေးခွန်းတွေကိုအသုံးပြုပြီး)
- မူလ Organic ဒေတာတွေထက် ဒေတာပမာဏ အများကြီးသေးငယ်သွားခြင်း
- တိကျတဲ့ရည်ရွယ်ချက်အတွက်ကိုသာ ဒေတာကောက်ယူခြင်း (သဘာဝအတိုင်းဖြစ်ပေါ်နေတဲ့ ဒေတာတွေအားလုံးကို ထည့်သွင်းကောက်ယူမှုမပြုခြင်း)
(နောက်ပိုင်းသင်ခန်းစာတွေမှာ Organic Data ရော၊ Designed Data ကိုပါ အသုံးပြုမှာဖြစ်ပါတယ်)
Data I.I.D?
Organic Data နဲ့ Designed Data တွေအကြောင်းကို စဉ်းစားပြီးတဲ့နောက်မှာ အရေးကြီးတဲ့ မေးခွန်းတစ်ခု ဖြစ်ပေါ်လာပါတယ်။ ဒီ Organic Data တွေနဲ့ Designed Data တွေက I.I.D ဖြစ်ရဲ့လား ဆိုတာပါပဲ။
I.I.D ဆိုတာက Independent နဲ့ Identically Distributed ကို ဆိုလိုတာ ဖြစ်ပါတယ်။ ဒေတာတွေကို Analysis ပြုလုပ်တဲ့အခါမှာ ဒေတာရဲ့အရင်းအမြစ်က Organic Data လား? Designed Data လား? ဆိုတာထက် ဒီဒေတာတွေက I.I.D ဖြစ်ရဲ့လား ဆိုတာကို စဉ်းစားမေးခွန်းထုတ်ဖို့ အရေးကြီးပါတယ်။
I.I.D Data က အမှီအခိုကင်းပြီး သီးခြားစီပျံ့နှံ့တည်ရှိနေတဲ့ ဒေတာ တွေကို ခေါ်တာ ဖြစ်ပါတယ်။
I.I.D ဒေတာတွေဟာ အခြားရှိရှိသမျှသော ဒေတာတွေနဲ့ ပက်သက်ဆက်နွယ်မှီခိုနေခြင်း လုံးဝမရှိရပါဘူး။
ဒါ့အပြင် ဒေတာတန်ဖိုးတွေအားလုံးဟာ တန်ဖိုးတွေထပ်တူကျလုနီးပါး တူညီနေကြတာမျိုးမဟုတ်ဘဲ Statistical သဘောတရားအရ တန်ဖိုးတွေက ပျံ့နှံ့တည်ရှိရပါမယ်။
ဒီတော့ ပြောရမယ်ဆိုရင် ကျွန်တော်တို့ရဲ့ တွေ့ရှိချက်ဒေတာတွေဟာ အခြားရှိရှိသမျှသော ဒေတာတွေနဲ့ လုံးဝပက်သက်ဆက်နွယ်နေတာမျိုး မရှိရသလို ဒေတာတန်ဖိုးတွေဟာလည်း Statistical Distribution ပျံ့နှံ့မှုပုံစံတစ်ခုခုကို ဖြစ်ပေါ်လာစေတဲ့ ဒေတာတန်ဖိုးတွေသာ ဖြစ်ရပါမယ်။
ဥပမာ - အတန်းတစ်တန်းရဲ့ စာမေးပွဲအမှတ်ဒေတာတွေ ဆိုကြပါစို့။ ကျောင်းသားတစ်ဦးချင်းစီရဲ့ စာမေးပွဲရလဒ်တွေဖြစ်တဲ့အတွက် အမှတ်တွေက တစ်ခုနဲ့ တစ်ခု မှီခိုပက်သက်ဆက်နွယ်နေတာမျိုးမရှိပါဘူး။ ကျောင်းသားတစ်ယောက်က အမှတ် ၁၀၀ ရလို့ အခြား တစ်ယောက်က ၁၀၀ ရလာတာမျိုး မရှိဘဲ ကျောင်းသားတစ်ဦးချင်းစီရဲ့ ဖြေနိုင်သလောက် ရလဒ်တွေပဲ ထွက်ပေါ်လာတာဖြစ်လို့ ဒီအမှတ်ဒေတာတွေက ပက်သက်ဆက်နွယ်မှီခိုမှုမရှိတဲ့ ဒေတာတွေဖြစ်ပါတယ်။ ဒါ့အပြင် စာသင်ခန်းတစ်ခန်းမှာ ကျောင်းသားတွေအားလုံး အမှတ် 100 ရတယ်ဆိုတာ မဖြစ်နိုင်ပဲ အမှတ်အနည်းအများရှိနေကြမှာမို့ ရမှတ်တွေက သဘာဝကျကျ အနည်းအများပြန့်နှံ့ တည်ရှိနေမှာ ဖြစ်ပါတယ်။ ဒီလိုသဘာဝကျကျ ပြန့်နှံ့တည်ရှိနေတဲ့ Statistical Distribution ကို Common Normal Distribution လို့ ခေါ်ပါတယ်။ ပြန့်နှံ့မှုပြ ဂရပ်ဖ်မျဉ်းက ခေါင်းလောင်းပုံနဲ့ တူတဲ့အတွက် Bell Shape Curved Distribution လို့လည်း ခေါ်ပါတယ်။
Bell Shap Curved Distribution |
ဒါပေမဲ့ ဒေတာတွေက I.I.D မဖြစ်တဲ့အခါတွေလည်း ရှိပါတယ်။ ဥပမာ - ကျောင်းသားတွေက တစ်ယောက်နဲ့ တစ်ယောက် အဖြေကူးချကြတာမျိုးပါ။ ဒါဆိုရင် သူတို့ရဲ့ ရမှတ်တွေက I.I.D မဟုတ်တော့ပါဘူး။ ကျား/မ ပျမ်းမျှရမှတ်တွေကလည်း ကွဲပြားနိုင်ပါတယ်။ ကျောင်းသားအုပ်စုအလိုက်လည်း အမှတ်တွေက ကွဲပြားနိုင်ပါသေးတယ်။
ဒီလို I.I.D မဖြစ်တဲ့ ဒေတာတွေကို Analysis လုပ်တဲ့အခါမှာ ခုနကပြောခဲ့တဲ့ ကွဲပြားမှု Differences နဲ့ ရလဒ်မှီခိုမှု Dependencies တွေကို ထည့်သွင်းစဉ်းစားဖို့ လိုအပ်ပါတယ်။ ဒီတော့ ဒေတာတွေက I.I.D ဖြစ်တယ်၊ မဖြစ်ဘူးဆိုတဲ့ ယူဆချက်တွေပေါ်မူတည်ပြီး မတူညီတဲ့ Anaylsis ပြုလုပ်မှုနည်းလမ်း(Analytic Procedures)တွေကို အသုံးပြုကြရပါတယ်။
အဓိကအချက်ကတော့ ဒေတာတွေကို စတင်ကိုင်တွယ်ဖို့ စဉ်းစားချိန်မှာ -
- I.I.d ဖြစ်တယ်လို့ယူဆထားတဲ့ ဒေတာတွေအပေါ်မှာ Statistical Procedures တွေကို အသုံးချနိုင်သလားဆိုတာ မေးခွန်းထုတ်ဖို့ရယ်
- ဒေတာတွေ ဘယ်ကလာသလဲဆိုတာကို အမြဲတမ်းစဉ်းစားဖို့ရယ်ပဲ ဖြစ်ပါတယ်။ အထူးသဖြင့် ဒေတာတွေက Organic Process တွေက ထွက်ပေါ်လာသလား? ဒေတာဖြစ်ပေါ်လာတဲ့ Process တွေက Dependencies တွေကို ထည့်သွင်းပေးလိုက်သလား? Designed Data Collection ကနေ ရလာတဲ့ ဒေတာတွေလား? စသဖြင့် စဉ်းစားသုံးသပ်ဖို့ လိုအပ်ပါတယ်။
Comments
Post a Comment