উদাহরণস্বরূপ, শব্দের জন্য w অবস্থান pos∈[0,L−1] ইনপুট ক্রম w=(w0,⋯,wL−1), 4-মাত্রিক এমবেডিং সহ ew, এবং dmodel=4, অপারেশন হবে
e′w=ew+[sin(pos100000),cos(pos100000),sin(pos100002/4),cos(pos100002/4)]=ew+[sin(pos),cos(pos),sin(pos100),cos(pos100)]
যেখানে অবস্থানগত এনকোডিংয়ের সূত্রটি নীচে রয়েছে
PE(pos,2i)=sin(pos100002i/dmodel),
PE(pos,2i+1)=cos(pos100002i/dmodel).
সঙ্গে dmodel=512 (সুতরাং i∈[0,255]) মূল কাগজে।
প্রস্তাবিত আর্কিটেকচারে ওয়ার্ড অর্ডার (1 ম শব্দ, 2 য় শব্দ, ..) এর কোনও ধারণা না থাকায় এই কৌশলটি ব্যবহৃত হয় । ইনপুট সিকোয়েন্সের সমস্ত শব্দ কোনও বিশেষ অর্ডার বা অবস্থান (সাধারণ আরএনএন বা কনভনেট আর্কিটেকচারের বিপরীতে) ছাড়াই নেটওয়ার্ককে খাওয়ানো হয়, সুতরাং, শব্দগুলি কীভাবে অর্ডার করা হয়েছে তা মডেলটির কোনও ধারণা নেই। ফলস্বরূপ, প্রতিটি শব্দ-এম্বেডিংয়ে শব্দের ক্রমকে অন্তর্ভুক্ত করতে একটি অবস্থান-নির্ভর সংকেত যুক্ত করা হয়। পরীক্ষাগুলির উপর ভিত্তি করে, এই সংযোজন কেবল এম্বেডিং তথ্যকে ধ্বংস করা এড়িয়ে যায় না তবে গুরুত্বপূর্ণ অবস্থান সম্পর্কিত তথ্যও যোগ করে। আরএনএন-এর ক্ষেত্রে আমরা শব্দগুলি ক্রমানুসারে আরএনএনকে খাওয়াই, অর্থাৎn-পরি শব্দটি ধাপে খাওয়ানো হয় n, যা শৃঙ্খলায় মডেলকে সহায়তা করে।
জে আলমমার এই নিবন্ধটি দুর্দান্ত ভিজ্যুয়ালাইজেশন সহ কাগজটি ব্যাখ্যা করে। দুর্ভাগ্যক্রমে, অবস্থানগত এনকোডিংয়ের জন্য এর উদাহরণটি এই মুহূর্তে ভুল (এটি ব্যবহার করে)sin এমবেডিং মাত্রা এবং প্রথমার্ধের জন্য cos দ্বিতীয়ার্ধের পরিবর্তে, ব্যবহারের পরিবর্তে sin এমনকি সূচকের জন্য এবং cos বিজোড় সূচকগুলির জন্য)।