ওয়াইআমি= β0+ + β1এক্সআমি+ + β2z- রআমি+ + εআমি
i = 1 , … , এনএক্স*আমি= ( এক্সআমি- এক্স¯) / এসডি ( এক্স )z- র*আমি= ( জেড)আমি- জেড¯) / এসডি ( জেড ))
ওয়াইআমি= β*0+ + β*1এক্স*আমি+ + β*2z- র*আমি+ + εআমি
তারপরে লাগানো প্যারামিটার (বিটা) পরিবর্তন হবে তবে সেগুলি এমনভাবে পরিবর্তিত হবে যা প্রয়োগ করা রূপান্তর থেকে আপনি সাধারণ বীজগণিত দ্বারা গণনা করতে পারেন। সুতরাং আমরা যদি রূপান্তরিত ভবিষ্যদ্বাণী ব্যবহার করে মডেল থেকে অনুমান করা বিটাগুলিকে কল করিβ*১ , ২ এবং অপরিবর্তিত মডেলটির সাহায্যে বিটাগুলি বোঝান β^১ , ২, ভবিষ্যদ্বাণীকারীদের উপায় এবং মানক বিচ্যুতিগুলি জেনে আমরা অন্যটি থেকে বিতার একটি সেট গণনা করতে পারি। ওএলএসের উপর ভিত্তি করে রূপান্তরিত এবং অপ্রত্যাশিত পরামিতিগুলির মধ্যে রিয়েলশনশিপটি তাদের অনুমানের মধ্যে একই। কিছু বীজগণিত হিসাবে সম্পর্ক দেবে
β0= β*0−β∗1x¯sd(x)−β∗2z¯sd(z),β1=β∗1sd(x),β2=β∗2sd(z)
So standardization is not a necessary part of modelling. (It might still be done for other reasons, which we do not cover here). This answer depends also upon us using ordinary least squares. For some other fitting methods, such as ridge or lasso, standardization is important, because we loose this invariance we have with least squares. This is easy to see: both lasso and ridge do regularization based on the size of the betas, so any transformation which change the relative sizes of the betas will change the result!
And this discussion for the case of linear regression tells you what you should look after in other cases: Is there invariance, or is it not? Generally, methods which depends on distance measures among the predictors will not show invariance, so standardization is important. Another example will be clustering.