(හැම්නර්ගේ පිළිතුර විශිෂ්ටයි, එබැවින් සම්පූර්ණත්වය සඳහා මෙටා ඔප්ටිමයිස් වෙතින් මගේ පිළිතුර හරස් පෝස්ට් කරන්න.)
උත්පාදක ඇල්ගොරිතම දත්ත සත්ය වශයෙන්ම ජනනය කරන ආකාරය පිළිබඳ ආකෘතියක් සපයන බව මම සිතමි (ඒවා වෙනුවට සහ යන දෙකෙහිම ආකෘතියක් ඔබට ලබා දෙන බව මම සිතමි . එය සමාන යැයි මම අනුමාන කළද), සහ වර්ගීකරණ බෙදීම් සැපයීම ලෙස වෙනස් කොට සැලකීමේ ඇල්ගොරිතම (සහ අනිවාර්යයෙන්ම සම්භාවිතා ආකාරයකින් නොවේ).පී( X.| වයි)පී( වයි)පී( X., වයි)
උදාහරණයක් ලෙස ගවුසියානු මිශ්රණ ආකෘති සහ කේ-මධ්යන්ය පොකුරුකරණය සසඳා බලන්න. කලින් සඳහන් කළ පරිදි, ලකුණු ජනනය කරන්නේ කෙසේද යන්න පිළිබඳ හොඳ සම්භාවිතා ආකෘතියක් අප සතුව ඇත (යම් සම්භාවිතාවක් සහිත සංරචකයක් තෝරන්න, ඉන්පසු සංරචකයේ ගෝස්සියානු ව්යාප්තියෙන් නියැදීමෙන් ලක්ෂ්යයක් විමෝචනය කරන්න), නමුත් දෙවැන්න ගැන අපට ඇත්ත වශයෙන්ම කිව හැකි කිසිවක් නැත.
Generative ගණිත ක්රමයක්, වෙනස්කම් නොමැති ගුණ ඇති බව ඔබ විසින් ලබා ගත හැකි බැවින් සටහන වරක් ඔබ හා (Bayes 'ප්රමේයය විසින්), වෙනස්කම් නොමැති ගණිත ක්රමයක් ඇත්තටම generative ගුණ නැහැ නමුත්.පී( වයි| x)පී( X.| වයි)පී( වයි)
1: වෙනස්කම් ඇත්ත වශයෙන්ම උත්පාදනය වන ආකාරය පිළිබඳ ආකෘතියක් ලබා නොදී, වෙනස්කම් වර්ගීකරණය කිරීමට ඇල්ගොරිතම මඟින් ඔබට ඉඩ ලබා දේ. එබැවින් මේවා එක්කෝ විය හැකිය:
- සම්භාවිතා ඇල්ගොරිතම ඉගෙන ගැනීමට උත්සාහ කරයි (උදා: ලොජිස්ටික් රෙග්රේෂන්);පී( වයි| x)
- හෝ ලකුණු සිට පන්ති දක්වා කෙලින්ම සිතියම් ඉගෙන ගැනීමට උත්සාහ කරන සම්භාවිතා නොවන ඇල්ගොරිතම (උදා: පර්සෙප්ට්රෝන් සහ එස්වීඑම් මඟින් ඔබට වෙන් කරන හයිපර් ප්ලේන් එකක් ලබා දෙයි, නමුත් නව ලකුණු උත්පාදනය කිරීමේ ආකෘතියක් නොමැත).
ඉතින් ඔව්, වෙනස් කොට සැලකීමේ වර්ගීකරණයක් යනු උත්පාදක නොවන ඕනෑම වර්ගීකරණයක්.
මේ ගැන සිතීමේ තවත් ක්රමයක් නම්, උත්පාදක ඇල්ගොරිතම ඔබේ ආකෘතිය මත යම් ආකාරයක ව්යුහ උපකල්පන සිදු කරයි , නමුත් වෙනස් කොට සැලකීමේ ඇල්ගොරිතම මඟින් උපකල්පන අඩු කරයි. නිදසුනක් ලෙස, නයිව් බේස් ඔබේ අංගයන්ගේ කොන්දේසි සහිත ස්වාධීනත්වය උපකල්පනය කරන අතර, ලොජිස්ටික් රෙග්රේෂන් (නයිව් බේස්ගේ වෙනස් කොට සැලකීමේ "ප්රතිවිරුද්ධ පාර්ශවය") එසේ නොවේ.
2: ඔව්, නයිව් බේස් උත්පාදනය වන්නේ එය සහ අල්ලා ගන්නා බැවිනි . උදාහරණයක් ලෙස, සහ , ඉංග්රීසි සහ ප්රංශ වචන සම්භාවිතාවන් සමඟ අප දන්නේ නම් , දැන් අපට ලේඛනයේ භාෂාව තෝරා ගැනීමෙන් නව ලේඛනයක් ජනනය කළ හැකිය ( සම්භාවිතාව 0.7 සහිත ඉංග්රීසි, සම්භාවිතාව 0.3 සහිත ප්රංශ), ඉන්පසු තෝරාගත් භාෂාවේ වචන සම්භාවිතාව අනුව වචන උත්පාදනය කිරීම.පී( X.| වයි)පී( වයි)පී( වයි= ඊn උl i s h ) = 0.7පී( වයි= එෆ්r e n c h ) = 0.3
පී( වයි| x) Α පී( X.| වයි) පී( වයි)පී( X.| වයි)පී( වයි)පී( වයි| x)
3: උත්පාදක ආකෘතීන් බොහෝ විට කුඩා දත්ත කට්ටලවල වෙනස් කොට සැලකීමේ ආකෘතීන් අභිබවා යයි . උදාහරණයක් ලෙස, නයිව් බේස් එදිරිව ලොජිස්ටික් රෙග්රේෂන් සලකා බලමු. නයිව් බේස් උපකල්පනය ඇත්තෙන්ම සෑහීමකට පත්වන්නේ කලාතුරකිනි, එබැවින් ඔබේ දත්ත කට්ටලය වර්ධනය වන විට ලොජිස්ටික් රෙග්රේෂන් නයිව් බේස් අභිබවා යනු ඇත (එයට නයිව් බේස්ට නොහැකි පරායත්තතා ග්රහණය කර ගත හැකි බැවින්). නමුත් ඔබ සතුව ඇත්තේ කුඩා දත්ත කට්ටලයක් පමණක් වන විට, ලොජිස්ටික් රෙග්රේෂන් මගින් සැබවින්ම නොපවතින ව්යාජ රටා තෝරා ගත හැකිය, එබැවින් නයිව් බේස් ඔබේ මාදිලියේ අධික ලෙස ආහාර ගැනීම වළක්වන ආකාරයේ නියාමකයෙකු ලෙස ක්රියා කරයි. එය තියෙනවා කඩදාසි වෙනස්කම් නොමැති එදිරිව generative classifiers මත ඇන්ඩෲ න්ග් හා මයිකල් ජෝර්දානය විසින් මේ ගැන සාකච්ඡා වැඩි බව.
4: මම හිතන්නේ එහි තේරුම නම්, ඔබේ ආකෘතිය නිවැරදිව නියම කර, ආකෘතිය ඇත්ත වශයෙන්ම දරන්නේ නම්, ජනක ආකෘතිවලට ඇත්ත වශයෙන්ම දත්තවල යටින් පවතින ව්යුහය ඉගෙන ගත හැකි නමුත් ඔබේ උත්පාදක උපකල්පන සෑහීමකට පත් නොවන්නේ නම් වෙනස් කොට සැලකීමේ ආකෘතීන් අභිබවා යා හැකිය (වෙනස් කොට සැලකීමේ ඇල්ගොරිතම බැවින් නිශ්චිත ව්යුහයකට වඩා අඩු බැඳීමක් ඇති අතර සැබෑ ලෝකය අවුල් සහගත වන අතර උපකල්පන කලාතුරකින් පරිපූර්ණ ලෙස සෑහීමකට පත්වේ). (මෙම උපුටා දැක්වීම් අවුල් සහගත නම් මම නොසලකා හරිනු ඇත.)