the tape measure from a huge tool storage chest, run down to the basem translation - the tape measure from a huge tool storage chest, run down to the basem Thai how to say

the tape measure from a huge tool s

the tape measure from a huge tool storage chest, run down to the basement, measure
the wood, run back out to the garage, leave the tape measure, grab the saw,
and then return to the basement with the saw and cut the wood. Now you decide
to bolt some pieces of wood together. So you run to the garage, grab the drill set,
go back down to the basement, drill the holes to put the bolts through, go back to
the garage, leave the drill set, grab one wrench, go back to the basement, find out
the wrench is the wrong size, go back to the tool chest in the garage, grab another
wrench, run back downstairs . . . wait! Would you really work this way? No!
Being a reasonable person, you think to yourself “If I need one wrench, I will
probably need another one of a different size soon anyway, so why not just grab
the whole set of wrenches?” Taking this one step further, you reason “Once I am
done with one certain tool, there is a good chance I will need another soon, so
why not just pack up a small toolbox and take it to the basement?” This way, you
keep the tools you need close at hand, so access is faster. You have just cached
some tools for easy access and quick use! The tools you are less likely to use
remain stored in a location that is further away and requires more time to access.
This is all that cache memory does: It stores data that has been accessed and data
that might be accessed by the CPU in a faster, closer memory.
Another cache analogy is found in grocery shopping. You seldom, if ever, go
to the grocery store to buy one single item. You buy any items you require immediately
in addition to items you will most likely use in the future. The grocery
store is similar to main memory, and your home is the cache. As another example,
consider how many of us carry around an entire phone book. Most of us have a
small address book instead. We enter the names and numbers of people we tend
to call more frequently; looking a number up in our address book is much quicker
than finding a phone book, locating the name, and then getting the number. We
tend to have the address book close at hand, whereas the phone book is probably
located in our home, hidden in an end table or bookcase somewhere. The phone
book is something we do not use frequently, so we can afford to store it in a little
more out of the way location. Comparing the size of our address book to the telephone
book, we see that the address book “memory” is much smaller than that of
a telephone book. But the probability is very high that when we make a call, it is
to someone in our address book.
Students doing research offer another commonplace cache example. Suppose
you are writing a paper on quantum computing. Would you go to the library,
check out one book, return home, get the necessary information from that book,
go back to the library, check out another book, return home, and so on? No, you
would go to the library and check out all the books you might need and bring
them all home. The library is analogous to main memory, and your home is,
again, similar to cache.
And as a last example, consider how one of your authors uses her office. Any
materials she does not need (or has not used for a period of more than six months)
get filed away in a large set of filing cabinets. However, frequently used “data”
remain piled on her desk, close at hand, and easy (sometimes) to find. If she
needs something from a file, she more than likely pulls the entire file, not simply
one or two papers from the folder. The entire file is then added to the pile on her
desk. The filing cabinets are her “main memory” and her desk (with its many
unorganized-looking piles) is the cache.
Cache memory works on the same basic principles as the preceding examples
by copying frequently used data into the cache rather than requiring an access to
main memory to retrieve the data. Cache can be as unorganized as your author’s
desk or as organized as your address book. Either way, however, the data must be
accessible (locatable). Cache memory in a computer differs from our real-life
examples in one important way: The computer really has no way to know, a priori,
what data is most likely to be accessed, so it uses the locality principle and
transfers an entire block from main memory into cache whenever it has to make a
main memory access. If the probability of using something else in that block is
high, then transferring the entire block saves on access time. The cache location
for this new block depends on two things: the cache mapping policy (discussed in
the next section) and the cache size (which affects whether there is room for the
new block).
The size of cache memory can vary enormously. A typical personal computer’s
level 2 (L2) cache is 256K or 512K. Level 1 (L1) cache is smaller, typically
8K or 16K. L1 cache resides on the processor, whereas L2 cache resides
between the CPU and main memory. L1 cache is, therefore, faster than L2 cache.
The relationship between L1 and L2 cache can be illustrated using our grocery
store example: If the store is main memory, you could consider your refrigerator
the L2 cache, and the actual dinner table the L1 cache.
The purpose of cache is to speed up memory accesses by storing recently
used data closer to the CPU, instead of storing it in main memory. Although
cache is not as large as main memory, it is considerably faster. Whereas main
memory is typically composed of DRAM with, say, a 60ns access time, cache is
typically composed of SRAM, providing faster access with a much shorter cycle
time than DRAM (a typical cache access time is 10ns). Cache does not need to
be very large to perform well. A general rule of thumb is to make cache small
enough so that the overall average cost per bit is close to that of main memory,
but large enough to be beneficial. Because this fast memory is quite expensive,
it is not feasible to use the technology found in cache memory to build all of
main memory.
What makes cache “special”? Cache is not accessed by address; it is accessed
by content. For this reason, cache is sometimes called content addressable memory
or CAM. Under most cache mapping schemes, the cache entries must be checked
or searched to see if the value being requested is stored in cache. To simplify this
process of locating the desired data, various cache mapping algorithms are used.
0/5000
From: -
To: -
Results (Thai) 1: [Copy]
Copied!
วัดจากหน้าอกจัดเก็บเครื่องมือใหญ่ รันลงไปห้องใต้ดิน วัดไม้ รันกลับออกไปโรงจอดรถ ออกวัด หยิบเลื่อยและจากนั้นกลับไปยังห้องใต้ดิน ด้วยการเลื่อย และตัดไม้ ตอนนี้คุณตัดสินใจใส่กลอนบางชิ้นไม้เข้าด้วยกัน เพื่อให้คุณทำงานอู่ซ่อมรถ คว้าชุดสว่านไปกลับลงไปชั้นใต้ดิน เจาะรูใส่สลักเกลียวผ่าน กลับไปโรงจอดรถ ปล่อยชุดสว่าน คว้ากุญแจหนึ่ง กลับไปยังห้องใต้ดิน หาประแจมีขนาดไม่ถูกต้อง กลับไปหน้าอกเครื่องมือในโรงรถ คว้าอีกประแจ รันกลับไปชั้นล่าง...รอ คุณจริง ๆ จะทำวิธีนี้หรือไม่ ไม่ใช่!เป็นผู้ที่เหมาะสม คุณคิดว่า เพื่อตัวเอง "ถ้าต้องการกุญแจหนึ่ง ฉันจะคงต้องอีกขนาดแตกต่างกันอย่างใดอย่างหนึ่งเร็ว ๆ นี้ต่อไป ดังนั้นทำไมไม่เพียงคว้าการตั้งค่าทั้งหมดของ wrenches " ทำขั้นตอนนี้เพิ่มเติม คุณเหตุผล "เมื่อผมทำ ด้วยเครื่องมือบางอย่างหนึ่ง มีโอกาสดีจะต้องอีกเร็ว ๆ นี้ ดังนั้นทำไมไม่เพียงแพ็คค่ากล่องเครื่องมือขนาดเล็ก และนำไปห้องใต้ดินหรือไม่" ด้วยวิธีนี้ คุณเก็บเครื่องมือที่คุณจำเป็นต้องปิดมือ เพื่อให้เข้าถึงได้เร็ว คุณมีแคใช้เครื่องมือบางอย่างง่าย และรวดเร็ว เครื่องมือที่คุณมีแนวโน้มการใช้จะเก็บอยู่ในตำแหน่งที่ต่อไป และต้องใช้เวลาถึงนี่คือสิ่งที่ทำการหน่วยความจำแคช: จะเก็บข้อมูลที่มีการเข้าถึงและข้อมูลที่อาจเข้าถึงได้ โดย CPU ในหน่วยความจำเร็วขึ้น ใกล้ชิดคำว่าแคอื่นพบในร้านค้า คุณไม่ใคร่ ถ้าเคย ไปการร้านค้าเพื่อซื้อสินค้าหนึ่งเดียว คุณซื้อสินค้าใด ๆ ที่คุณต้องการทันทีสินค้าคุณจะส่วนใหญ่ใช้ในอนาคต ที่ร้านขายของชำร้านจะคล้ายกับหน่วยความจำหลัก และบ้านของคุณเป็นแคช เป็นอย่างอื่นพิจารณาจำนวนของเราพกพากับสมุดโทรศัพท์ทั้งหมด ส่วนใหญ่ของเราได้ขนาดเล็กที่อยู่สำรองแทน เราใส่ชื่อและหมายเลขของคนที่เรามักโทรบ่อย หา ตัวเลขในสมุดรายชื่อของเราได้เร็วค้นหาสมุดโทรศัพท์ ค้นหาชื่อ และได้รับหมายเลขแล้ว เรามักจะ มีสมุดอยู่ใกล้มือ สมุดโทรศัพท์เป็นคงตั้งอยู่ในบ้านของเรา ซ่อนในตารางสิ้นสุดหรือ bookcase ที่ใดที่หนึ่ง โทรศัพท์หนังสือเป็นสิ่งที่เราไม่ใช้บ่อย เพื่อให้เราสามารถเก็บได้เล็กน้อยเพิ่มเติมจากที่ตั้งทาง เปรียบเทียบขนาดของสมุดที่อยู่ของเราที่โทรศัพท์หนังสือ เราดูว่าสมุดรายชื่อ "หน่วยความจำ" ขนาดเล็กกว่าของสมุดโทรศัพท์ แต่ความเป็นไปได้สูงมากว่า เมื่อเราโทร มีกับบุคคลในสมุดที่อยู่ของเรานักศึกษาทำการวิจัยนำเสนออีกตัวอย่างหนึ่งเป็นธรรมดาแค สมมติว่าคุณกำลังเขียนรายงานเกี่ยวกับควอนตัมคอมพิวเตอร์ จะไปรีเช็คเล่ม กลับบ้าน ได้รับข้อมูลที่จำเป็นจากที่หนังสือกลับไปรี ตรวจสอบ ออกหนังสืออื่น กลับบ้าน และ ไม่ คุณจะไปรี และตรวจสอบหนังสือทั้งหมดคุณอาจต้องการ และนำพวกเขาทั้งหมดบ้าน รีเป็นคู่หลักหน่วยความจำ และบ้านอีกครั้ง กับแคชและเป็นตัวอย่างล่าสุด พิจารณาวิธีหนึ่งของผู้เขียนของใช้สำนักงานของเธอ ใด ๆวัสดุเธอไม่จำเป็น (หรือไม่ได้ใช้เป็นระยะเวลามากกว่า 6 เดือน)รับยื่นออกไปในชุดใหญ่ของตู้ อย่างไรก็ตาม มักใช้ "ข้อมูล"อยู่ชั้นบนโต๊ะของเธอ ที่ และง่าย (บางครั้ง) ในการค้นหา ถ้าเธอความต้องการจากแฟ้ม เธอกว่าจะดึงไฟล์ทั้งหมด ไม่เพียงหนึ่ง หรือสองเอกสารจากโฟลเดอร์ กองกับเธอแล้วเพิ่มแฟ้มทั้งหมดโต๊ะบริการ ตู้เป็นของเธอ "จำหลัก" และโต๊ะของเธอ (มีหลายตัวกองกำลัง unorganized) เป็นแคชหน่วยความจำแคชทำงานบนหลักการพื้นฐานเดียวกันเป็นตัวอย่างข้างต้นโดยคัดลอกมักใช้ข้อมูลในแคชแทนที่ต้องเข้าถึงหน่วยความจำหลักเพื่อดึงข้อมูล แคชสามารถเป็น unorganized เป็นของผู้เขียนโต๊ะหรือ ที่จัดเป็นสมุดที่อยู่ของคุณ ทั้งสองวิธี อย่างไรก็ตาม ข้อมูลต้องสามารถเข้าถึงได้ (locatable) หน่วยความจำแคชของคอมพิวเตอร์แตกต่างจากชีวิตจริงของเราตัวอย่างวิธีการสำคัญหนึ่ง: คอมพิวเตอร์จริง ๆ มีวิธีรู้ เป็น prioriข้อมูลใดคือมักจะเข้าถึง เพื่อใช้หลักท้องถิ่น และโอนย้ายการบล็อกทั้งหมดจากหน่วยความจำหลักลงในแคชเมื่อใดก็ ตามที่มีการทำการการเข้าถึงหน่วยความจำหลัก ถ้าความน่าเป็นของใช้อย่างอื่นในบล็อกนั้นสูง การโอนย้ายบล็อกทั้งหมดแล้ว บันทึกเวลาเข้า ตำแหน่งของแคชสำหรับบล็อกใหม่ขึ้นอยู่กับสองสิ่ง: นโยบายการแม็ปแค (กล่าวถึงในส่วนถัดไป) และขนาดของแคช (ซึ่งส่งผลให้มีห้องสำหรับการใหม่บล็อก)ขนาดของหน่วยความจำแคชอาจแตกต่างกันไป ตามปกติคอมพิวเตอร์ส่วนบุคคลของระดับ 2 (L2) เป็นแคช 256K หรือ 512K ระดับ 1 (L1) แคชมีขนาดเล็ก โดยทั่วไป8K หรือ 16K แคช L1 อยู่ในหน่วยประมวลผล ในขณะที่แคช L2 อยู่ระหว่าง CPU และหน่วยความจำหลัก แคช L1 อยู่ ดังนั้น เร็วกว่า L2 แคชสามารถแสดงความสัมพันธ์ระหว่างแคช L1 และ L2 โดยใช้ร้านของเราเก็บตัวอย่าง: ถ้าเก็บหน่วยความจำหลัก คุณสามารถลองตู้เย็นของคุณแคช L2 และโต๊ะอาหารจริง L1 แคชวัตถุประสงค์ของแคชจะเร่งหาหน่วยความจำเก็บล่าสุดใช้ข้อมูลใกล้ชิดกับ CPU แทนที่จะเก็บในหน่วยความจำหลัก ถึงแม้ว่าแคชไม่มีขนาดใหญ่เป็นหน่วยความจำหลัก ทำงานได้เร็วมาก ในขณะที่หลักหน่วยความจำโดยทั่วไปประกอบด้วย DRAM กับ พูด 60ns เข้าถึงเวลา แคโดยทั่วไปประกอบด้วย SRAM ให้เร็วเข้ารอบสั้นกว่าเวลากว่า DRAM (เวลาเข้าแคทั่วไปคือ 10ns) แคชไม่ต้องมีขนาดใหญ่มากทำดี แบบทั่วไปกฎของหัวแม่มือจะทำให้แคเล็กเพียงพอเพื่อให้ต้นทุนรวมเฉลี่ยต่อบิตเป็นที่อยู่ของหน่วยความจำหลักแต่พอเป็นประโยชน์ เนื่องจากหน่วยความจำอย่างรวดเร็วนี้จะค่อนข้างมีราคาแพงไม่สามารถใช้เทคโนโลยีในหน่วยความจำแคชเพื่อสร้างทั้งหมดหน่วยความจำหลักสิ่งที่ทำให้แค "พิเศษ" ไม่มีการเข้าถึงแคชตามที่อยู่ มีการเข้าถึงโดยเนื้อหา ด้วยเหตุนี้ แคบางครั้งเรียกว่าหน่วยความจำแอดเดรสที่เนื้อหาหรือ CAM ภายใต้แผนงานส่วนใหญ่แคแมป ต้องเลือกรายการการแคชหรือค้นหาเพื่อดูว่าค่าร้องขอถูกจัดเก็บในแคช การทำนี้ใช้กระบวนการค้นหาข้อมูลที่ระบุ อัลกอริทึมต่าง ๆ แคแมป
Being translated, please wait..
Results (Thai) 2:[Copy]
Copied!
the tape measure from a huge tool storage chest, run down to the basement, measure
the wood, run back out to the garage, leave the tape measure, grab the saw,
and then return to the basement with the saw and cut the wood. Now you decide
to bolt some pieces of wood together. So you run to the garage, grab the drill set,
go back down to the basement, drill the holes to put the bolts through, go back to
the garage, leave the drill set, grab one wrench, go back to the basement, find out
the wrench is the wrong size, go back to the tool chest in the garage, grab another
wrench, run back downstairs . . . wait! Would you really work this way? No!
Being a reasonable person, you think to yourself “If I need one wrench, I will
probably need another one of a different size soon anyway, so why not just grab
the whole set of wrenches?” Taking this one step further, you reason “Once I am
done with one certain tool, there is a good chance I will need another soon, so
why not just pack up a small toolbox and take it to the basement?” This way, you
keep the tools you need close at hand, so access is faster. You have just cached
some tools for easy access and quick use! The tools you are less likely to use
remain stored in a location that is further away and requires more time to access.
This is all that cache memory does: It stores data that has been accessed and data
that might be accessed by the CPU in a faster, closer memory.
Another cache analogy is found in grocery shopping. You seldom, if ever, go
to the grocery store to buy one single item. You buy any items you require immediately
in addition to items you will most likely use in the future. The grocery
store is similar to main memory, and your home is the cache. As another example,
consider how many of us carry around an entire phone book. Most of us have a
small address book instead. We enter the names and numbers of people we tend
to call more frequently; looking a number up in our address book is much quicker
than finding a phone book, locating the name, and then getting the number. We
tend to have the address book close at hand, whereas the phone book is probably
located in our home, hidden in an end table or bookcase somewhere. The phone
book is something we do not use frequently, so we can afford to store it in a little
more out of the way location. Comparing the size of our address book to the telephone
book, we see that the address book “memory” is much smaller than that of
a telephone book. But the probability is very high that when we make a call, it is
to someone in our address book.
Students doing research offer another commonplace cache example. Suppose
you are writing a paper on quantum computing. Would you go to the library,
check out one book, return home, get the necessary information from that book,
go back to the library, check out another book, return home, and so on? No, you
would go to the library and check out all the books you might need and bring
them all home. The library is analogous to main memory, and your home is,
again, similar to cache.
And as a last example, consider how one of your authors uses her office. Any
materials she does not need (or has not used for a period of more than six months)
get filed away in a large set of filing cabinets. However, frequently used “data”
remain piled on her desk, close at hand, and easy (sometimes) to find. If she
needs something from a file, she more than likely pulls the entire file, not simply
one or two papers from the folder. The entire file is then added to the pile on her
desk. The filing cabinets are her “main memory” and her desk (with its many
unorganized-looking piles) is the cache.
Cache memory works on the same basic principles as the preceding examples
by copying frequently used data into the cache rather than requiring an access to
main memory to retrieve the data. Cache can be as unorganized as your author’s
desk or as organized as your address book. Either way, however, the data must be
accessible (locatable). Cache memory in a computer differs from our real-life
examples in one important way: The computer really has no way to know, a priori,
what data is most likely to be accessed, so it uses the locality principle and
transfers an entire block from main memory into cache whenever it has to make a
main memory access. If the probability of using something else in that block is
high, then transferring the entire block saves on access time. The cache location
for this new block depends on two things: the cache mapping policy (discussed in
the next section) and the cache size (which affects whether there is room for the
new block).
The size of cache memory can vary enormously. A typical personal computer’s
level 2 (L2) cache is 256K or 512K. Level 1 (L1) cache is smaller, typically
8K or 16K. L1 cache resides on the processor, whereas L2 cache resides
between the CPU and main memory. L1 cache is, therefore, faster than L2 cache.
The relationship between L1 and L2 cache can be illustrated using our grocery
store example: If the store is main memory, you could consider your refrigerator
the L2 cache, and the actual dinner table the L1 cache.
The purpose of cache is to speed up memory accesses by storing recently
used data closer to the CPU, instead of storing it in main memory. Although
cache is not as large as main memory, it is considerably faster. Whereas main
memory is typically composed of DRAM with, say, a 60ns access time, cache is
typically composed of SRAM, providing faster access with a much shorter cycle
time than DRAM (a typical cache access time is 10ns). Cache does not need to
be very large to perform well. A general rule of thumb is to make cache small
enough so that the overall average cost per bit is close to that of main memory,
but large enough to be beneficial. Because this fast memory is quite expensive,
it is not feasible to use the technology found in cache memory to build all of
main memory.
What makes cache “special”? Cache is not accessed by address; it is accessed
by content. For this reason, cache is sometimes called content addressable memory
or CAM. Under most cache mapping schemes, the cache entries must be checked
or searched to see if the value being requested is stored in cache. To simplify this
process of locating the desired data, various cache mapping algorithms are used.
Being translated, please wait..
Results (Thai) 3:[Copy]
Copied!
เทปวัดใหญ่เครื่องมือกระเป๋าหน้าอก วิ่งลงไปชั้นใต้ดิน วัด
ไม้ วิ่งกลับออกไปในโรงรถ ออกจากวัดเทป , คว้าเห็น
แล้วกลับไปที่ชั้นใต้ดินด้วยเลื่อยตัดไม้ ตอนนี้คุณตัดสินใจ
ซ่อมบางชิ้นของไม้เข้าด้วยกัน ดังนั้นคุณไปที่โรงรถ หยิบสว่านชุด
กลับลงไปชั้นใต้ดิน เจาะ รูใส่น็อตผ่านกลับไป
โรงรถ เอาสว่านชุด หยิบประแจกลับไปชั้นใต้ดินหา
ประแจมีขนาดผิด กลับไปอกเครื่องมือในโรงรถ หยิบประแจอื่น
, วิ่งกลับลงไปข้างล่าง . . . . . . . เดี๋ยว ! คุณจะทำแบบนี้ ? ไม่ !
เป็นคนที่เหมาะสม คุณคิดกับตัวเอง " ถ้าต้องมีประแจ ฉันจะ
ต้องการอีกหนึ่งของขนาดแตกต่างกันอยู่แล้วดังนั้นทำไมไม่คว้า
ทั้งชุดประแจเหล็ก " เอานี้อีกขั้นหนึ่ง คุณมีเหตุผล " เมื่อฉัน
เสร็จหนึ่งเครื่องมือบางอย่าง มันเป็นโอกาสที่ดีที่ผมจะต้องอีกเร็ว ๆนี้ดังนั้น
ทำไมไม่เก็บของกล่องเครื่องมือขนาดเล็กและใช้กับดิน " ด้วยวิธีนี้ คุณ
ให้เครื่องมือที่คุณต้องการใกล้มือเพื่อให้เข้าถึงได้เร็วขึ้น คุณมีเพียงแค่เก็บไว้
เครื่องมือบางอย่างสำหรับการเข้าถึงง่ายและรวดเร็ว !เครื่องมือที่คุณมีโอกาสน้อยที่จะใช้
ยังคงเก็บไว้ในสถานที่ที่ไกลออกไป และต้องใช้เวลามากขึ้นในการเข้าถึง .
นี่คือทั้งหมดที่แคชหน่วยความจำทำ : มันเก็บข้อมูลที่มีการเข้าถึงข้อมูล
ที่อาจเข้าถึงได้ โดยซีพียูที่เร็วขึ้น ใกล้ชิดหน่วยความจำ .
อีกแคชคล้ายคลึงคือพบ ในการช้อปปิ้งร้านขายของชำ คุณไม่ค่อยหากเคยไป
ไปร้านขายของชำที่จะซื้อหนึ่งรายการเดียวคุณซื้อรายการใด ๆที่คุณต้องการได้ทันที
นอกจากรายการคุณส่วนใหญ่จะใช้ในอนาคต ร้านขายของชำ
ร้านคล้ายกับหน่วยความจำหลัก และ บ้านของคุณคือ แคช อีกตัวอย่างหนึ่ง
พิจารณาหลายวิธีที่เราพกโทรศัพท์หนังสือทั้งหมด ส่วนใหญ่ของเรามีหนังสือที่อยู่
ขนาดเล็กแทน ให้เราใส่ชื่อและหมายเลขของคนเรามักจะ
เรียกบ่อย ;ดูเบอร์ในสมุดโทรศัพท์ของเราจะรวดเร็วมาก
กว่าการค้นหาสมุดโทรศัพท์ ค้นหาชื่อ และได้รับหมายเลข เรา
มักจะ มีหนังสือที่อยู่ใกล้มือ ส่วนสมุดโทรศัพท์น่าจะเป็น
ตั้งอยู่ในบ้านเราอยู่ในท้ายตาราง หรือ ตู้หนังสือ ที่ไหนสักแห่ง โทรศัพท์
หนังสือเป็นสิ่งที่เราไม่ได้ใช้บ่อย ดังนั้นเราสามารถเก็บมันหน่อย
เพิ่มเติมจากทางสถานที่ เปรียบเทียบขนาดของหนังสือที่อยู่ของเรา โทรศัพท์
หนังสือ เราเห็นหนังสือที่อยู่ " ความทรงจำ " มีขนาดเล็กมากกว่าของ
โทรศัพท์หนังสือ แต่โอกาสมีสูงมาก เพราะเมื่อเราโทรหามัน
กับคนในสมุดที่อยู่ของเรา .
นักเรียนทำวิจัยเสนอตัวอย่างแคชธรรมดาอีก สมมติ
คุณเขียนรายงานเกี่ยวกับควอนตัมคอมพิวเตอร์คุณไปห้องสมุด
ตรวจสอบหนังสือเล่มหนึ่งกลับได้รับข้อมูลที่จำเป็นจากหนังสือ
กลับไปห้องสมุด ตรวจสอบหนังสือ อื่น กลับ บ้าน และอื่น ๆ ? ไม่ คุณ
จะไปห้องสมุดและตรวจสอบหนังสือทั้งหมดที่คุณอาจต้องการและนำ
หมดบ้าน สมุดเทียบกับหน่วยความจำหลัก และ บ้านของคุณคือ
อีกครั้ง คล้ายกับแคช .
และตัวอย่างล่าสุดพิจารณาวิธีหนึ่งของผู้เขียนของคุณใช้ห้องทำงานของเธอ
วัสดุใด ๆ เธอไม่ต้อง ( หรือไม่ได้ใช้เป็นระยะเวลามากกว่า 6 เดือน )
รับยื่นออกไปในชุดใหญ่ของตู้เก็บเอกสาร . แต่ที่ใช้บ่อย " ข้อมูล "
ยังคงกองอยู่บนโต๊ะของเธอ ใกล้มือและง่าย ( บางครั้ง ) เพื่อหา ถ้าเธอ
ต้องการบางอย่างจากแฟ้ม เธอกว่าจะดึงไฟล์ทั้งหมด ไม่เพียงแค่
หนึ่งหรือสองเอกสารจากโฟลเดอร์ ไฟล์ทั้งหมดแล้วเพิ่มไปยังกองบนโต๊ะของเธอ

ตู้เอกสารเป็นหลัก " ความทรงจำ " และโต๊ะของเธอ ( ที่มีมากมาย
อลหม่านมองกอง ) คือ แคช แคชงาน
หน่วยความจำเดียวกันหลักการพื้นฐานที่ตัวอย่างก่อนหน้านี้
โดยการคัดลอกข้อมูลที่ใช้บ่อยในแคชแทนที่จะต้องเข้าถึง
หน่วยความจำหลักเพื่อดึงข้อมูลแคชจะไม่ได้เป็นนักเขียน
โต๊ะหรือจัดเป็นหนังสือที่อยู่ของคุณ ทั้งสองวิธี แต่ข้อมูลต้องสามารถเข้าถึงได้ (
locatable ) แคชของหน่วยความจำในคอมพิวเตอร์ที่แตกต่างจากตัวอย่างชีวิตจริง
ของเราในหนึ่งที่สำคัญทางคอมพิวเตอร์จริงๆ ไม่มีทางที่จะรู้ , a priori ,
ข้อมูลมีแนวโน้มที่จะเข้าถึงได้ ดังนั้น จะใช้หลักการและ
ท้องถิ่นโอนที่บล็อกทั้งหมดจากหน่วยความจำหลักในแคชเมื่อใดก็ตามที่มันต้องทำ
เข้าถึงหน่วยความจำหลัก ถ้าความน่าจะเป็นที่จะใช้อย่างอื่นในบล็อก
สูง แล้วย้ายบล็อกทั้งหมดจะช่วย ประหยัด เวลาในการเข้าถึง
สถานที่แคชสำหรับบล็อกใหม่นี้ขึ้นอยู่กับสองสิ่ง : แคชแผนที่นโยบาย ( กล่าวถึงใน
ส่วนถัดไป ) และขนาดแคช ( ซึ่งมีผลว่ามีห้องสำหรับบล็อกใหม่

) ขนาดของแคชหน่วยความจำอาจแตกต่างกันอย่างมาก โดยทั่วไปของคอมพิวเตอร์ส่วนบุคคล
ระดับที่ 2 ( L2 ) แคช 256K หรือ 512k ระดับ 1 ( L1 ) แคชมีขนาดเล็ก โดยปกติ
หรือ L1 แคช 8K 16K ที่อยู่บนตัวประมวลผล ส่วน L2 แคชอยู่
ระหว่างซีพียูและหน่วยความจำหลัก L1 แคชจึงเร็วกว่า
L2 แคชความสัมพันธ์ระหว่าง L1 และ L2 แคชสามารถแสดงการใช้ของเราร้านขายของชำ
ร้านตัวอย่าง : ถ้าการจัดเก็บที่หน่วยความจำหลัก คุณสามารถพิจารณาตู้เย็นของคุณ
L2 แคช และจริงโต๊ะรับประทานอาหารที่ L1 แคช
วัตถุประสงค์ของแคชเพื่อเพิ่มความเร็วในการเข้าถึงหน่วยความจำโดยการใช้ข้อมูลนี้
ใกล้ชิดกับ ซีพียู แทนที่จะเก็บในหน่วยความจำหลัก แม้ว่า
แคชไม่เป็นใหญ่เป็นหน่วยความจำหลัก เป็นเร็ว . ส่วนหน่วยความจำหลัก
ประกอบด้วยปกติของ DRAM , พูด , เวลาการเข้าถึง 60ns แคช คือ
ประกอบด้วยปกติของ SRAM ให้เข้าถึงได้เร็วขึ้นด้วยเวลาที่สั้นกว่าวัฏจักร
กว่า DRAM ( ทั่วไปแคชเข้าถึงเวลา 10ns ) แคชไม่ต้อง
มีขนาดใหญ่มากที่ต้องทำหน้าที่ให้ดี กฎทั่วไปของหัวแม่มือคือเพื่อให้แคชขนาดเล็ก
พอดังนั้นโดยรวม ต้นทุนเฉลี่ยต่อบิตอยู่ใกล้กับที่ของหน่วยความจำหลัก ,
แต่ใหญ่พอที่จะเป็นประโยชน์ เพราะหน่วยความจำที่รวดเร็วนี้ค่อนข้างแพง ,
มันไม่ได้เป็นไปได้ที่จะใช้เทคโนโลยีที่พบในแคชเมโมรีที่จะสร้างทั้งหมด

หน่วยความจําหลัก ทำให้แคช " พิเศษ " แคชไม่เข้าถึงที่อยู่ มันเข้าถึง
โดยเนื้อหา ด้วยเหตุผลนี้แคชบางครั้งเรียกว่าเนื้อหา
หน่วยความจำแอดเดรส หรือ แคม ภายใต้โครงร่างแผนที่แคชส่วนใหญ่แคชรายการจะต้องตรวจสอบ
หรือค้นหาเพื่อดูว่าค่าถูกร้องขอจะถูกเก็บไว้ในแคช เพื่อลดความซับซ้อนของกระบวนการในการค้นหาข้อมูลที่ต้องการนี้
, ขั้นตอนวิธีการแคชแผนที่ต่าง ๆที่ใช้
Being translated, please wait..
 
Other languages
The translation tool support: Afrikaans, Albanian, Amharic, Arabic, Armenian, Azerbaijani, Basque, Belarusian, Bengali, Bosnian, Bulgarian, Catalan, Cebuano, Chichewa, Chinese, Chinese Traditional, Corsican, Croatian, Czech, Danish, Detect language, Dutch, English, Esperanto, Estonian, Filipino, Finnish, French, Frisian, Galician, Georgian, German, Greek, Gujarati, Haitian Creole, Hausa, Hawaiian, Hebrew, Hindi, Hmong, Hungarian, Icelandic, Igbo, Indonesian, Irish, Italian, Japanese, Javanese, Kannada, Kazakh, Khmer, Kinyarwanda, Klingon, Korean, Kurdish (Kurmanji), Kyrgyz, Lao, Latin, Latvian, Lithuanian, Luxembourgish, Macedonian, Malagasy, Malay, Malayalam, Maltese, Maori, Marathi, Mongolian, Myanmar (Burmese), Nepali, Norwegian, Odia (Oriya), Pashto, Persian, Polish, Portuguese, Punjabi, Romanian, Russian, Samoan, Scots Gaelic, Serbian, Sesotho, Shona, Sindhi, Sinhala, Slovak, Slovenian, Somali, Spanish, Sundanese, Swahili, Swedish, Tajik, Tamil, Tatar, Telugu, Thai, Turkish, Turkmen, Ukrainian, Urdu, Uyghur, Uzbek, Vietnamese, Welsh, Xhosa, Yiddish, Yoruba, Zulu, Language translation.

Copyright ©2025 I Love Translation. All reserved.

E-mail: