Hạn chế phân mảnh HD như thế này có OK ko?

thucanh

New member
GẮN KẾT
Mạc dù có nhiều công cụ Defrag HD, nhưng cũng bất tiện vì chỉ sau 1 ngày lướt web là dung lượng các file temp internet lai đấy ắp, làm phân mảnh ổ cứng. E thấy một số người nói là chuyển thư mục chứa các files này sang partition khác (mặc định là C) để hạn chế phân mảnh parttition C.

Không biết cách đó có làm chậm performance của máy hay không? Xin vài ý kiến của các bác?
 
dùng 1,2 ngày thì ko có vấn đề gì đâu, h máy cấu hình cao rồi mà, để lâu lâu ~ nửa năm ghost lại thì sẽ chạy nhanh hơn thôi
 
Với các HDD hiện tại, lỗi Fragment không còn gây ảnh hưởng đến hiệu năng của toàn hệ thống ( khẳng định từ PCWorld USA).
Vì thế, việc Defragment không đem lại lợi ích gì nhiều cho người dùng, nếu có chỉ là giải quyết vấn đề tâm lý.
Vì thế, bác thucanh cứ để Temporary Internet Files trên Partition C cũng không có vấn đề gì đâu!
 
Bác quên ngay việc defrag đi, việc này chỉ có ích (lý thuyết) với các HDD cách đây 5, 6 năm thôi nhưng trên thực tế test lab của cả Mĩ và VN đều đã chứng minh là hầu như ko có tác dụng gì (ngay từ hồi đó nhé)!

Ở Thời điểm hiện tại, Hdd tốc độ cao thì hành động chống phân mảnh đa phần là gây hại:
1- Tốn dung lượng ổ cứng: nhiều người chuyển các tập tin temp sang 1 partition riêng, có 1 nguyên tắc: càng nhiều partition thì phần unused càng nhiều càng gây lãng phí ổ.
2- Gây lỗi vật lý: Ổ cứng ngày nay tốc độ tuy cao nhưng dung lượng cũng rất lớn, việc defrag đòi hỏi rất nhiều thời gian, ổ chạy liên tục trong thời gian dài rất nhanh hỏng (chủ yếu do Nhiệt độ, một phần do hỏng vật lý thông thường)!
 
mình thấy bạn không nên defrag nữa. hại máy lắm.
ổ cứng lớn defrag lâu, tỏa nhiệt nhiều -> hại máy.
 
Có quan điểm hoàn toàn trái ngược với 3 đồng chí trên (hay nói chính xác hơn là tách bạch rõ ràng khái niệm có hiệu quả trong từng trường hợp cụ thể), tôi khẳng định việc Defragment có thể tăng tới 30% tốc độ làm việc đối với những file có dung lượng lớn.

Nếu bạn chỉ làm việc với các file dung lượng không quá 10MB, đừng bận tâm đến Defragment :)

Tuy nhiên nếu bạn là người thường xuyên làm việc với các file có dung lượng lớn (file Video, file ISO...) thì rất nên Defragment máy theo định kỳ. Lần đầu sẽ tốn khá nhiều thời gian, tuy nhiên những lần kế tiếp sẽ rất nhanh thôi :)

Có điều đừng quá cầu toàn. Một câu hỏi vui: "Bạn có nên tắm không nếu chỉ đi từ nhà tắm vào phòng, người bạn đã lại bẩn" :p
 
có 1 nguyên tắc: càng nhiều partition thì phần unused càng nhiều càng gây lãng phí ổ.

Bạn có thể chứng minh điều này không?
Tôi có thể chứng minh điều ngược lại: chia nhiều Partition thì phần dung lượng bị bỏ phí ít hơn :)
 
Ok, thế này nhé:
Giả sử bác có 1 ổ cứng 500GB
Có 2 trường hợp, phân thành 10 ổ chứa dữ liệu và chỉ 1 ổ duy nhất.

Dung Lượng cho Files hệ thống đương nhiên trong trường hợp 10 ổ sẽ tốn hơn (files hệ thống ở ổ dung lượng khác nhau thì hầu như ko thay đổi) nhưng có thể bỏ qua!


Ta chỉ xét riêng phần dung lượng hao phí cho việc để trống ổ:
Trong trường hợp ổ 500 GB ta tạo các thư mục rồi cóp dữ liệu vào, cho đến khi ổ còn trống vài @ MB ( @ << ), thì cũng chẳng nên mà cũng chẳng thể nhồi nhét nữa!

Nếu phân thành 10 partition để phân chia dữ liệu, mỗi partition tương ứng một folder của trường hợp trên. Cũng thực hiện thao tác cóp dữ liệu và mỗi ổ sẽ lại phải bỏ trống 1 khoảng @1, @2, @3, @4 ... @10

Về nguyên tắc ta có thể cóp đến kiệt ổ cứng (@* ~ 0 byte) nhưng hạn chế lại là do người dùng, thường theo thói quen anh sẽ cóp một lượng lớn dữ liệu (như em mỗi lần tầm 1 vài GB là ít) với một ổ duy nhất thì em sẽ chỉ lãng phí tối đa 1GB nhưng với 10 ổ sẽ là 1 x 10GB. Anh có thể lập luận rằng anh sẽ chia nhỏ dữ liệu đó ra mỗi ổ nhưng như thế việc phân ổ để quản lý dữ liệu của anh trở nên vô nghĩa (dữ liệu nằm mỗi ổ một ít) và lại nhọc công phân chia!

Bên cạnh đó khi ta phân partition thì thường mỗi partition sẽ đảm nhiệm chứa một loại dữ liệu nhất định, ko bao giờ ta có thể tính toán và lường trước dung lượng cần thiết của mỗi partition. Sẽ có lúc có một lượng dữ liệu bột phát và lại phải san sang partition khác. Ví dụ nhé:
Em phân ra partition G là để chứa video với 100GB.
partition H là để chứa Nhạc với 30GB.
Đã có lúc em cóp liền 40GB nhạc vác về nhà thì rõ ràng em phải resize lại ổ rồi trong khi nếu em chứa tất cả dữ liệu trên cùng 1 partition thì chỉ còn hạn chế về dung lượng tối đa!

Nói thì dài dòng nhưng tổng kết lại có thể nói dung lượng bỏ phí khi chia 1 HDD ra quá nhiều partition là do người dùng, chắc chắn xảy ra và hầu như ko có cách khắc phục hiệu quả!
 
Em cũng đang thắc mắc cái câu bro nvb87 nói là "càng nhiều partition thì càng lãng phí" ...

Hóa ra bác ý nói là về lĩnh vực sử dụng của người dùng, chứ ko phải là về vấn đề kĩ thuật.

Em cũng thêm là, tuy cái sự lãng phí của bro nói là có lý, nhưng mà so với sự tiện dụng thì sự lãng phí đó hoàn toàn chấp nhận đc :)

Nhưng mà như hiện giờ, các file video HD đều to đùnng (~ 4GB, 8GB hay thậm chí 20GB ?), các file nhạc lossless ~ 650MB chẳng hạn, thì khái niệm "ổ cứng to" chỉ là tương đối. Như vậy theo sự tương đối thì việc defrag vẫn cần thiết chứ nhỉ ^ ^
 
:) Vậy tôi sẽ chứng minh điều ngược lại nhé :)

- HDD của bạn quản lý dữ liệu theo sector và cluster. Mỗi sector có độ lớn 512byte. Số lượng cluster bị giới hạn nên mỗi cluster sẽ gồm từ 1 đến 32 sector tùy theo độ lớn của partition cũng như định dạng của partition.
harddisk-2.gif


- Đối với Windows XP, ta có thể thấy rõ việc sử dụng HDD như sau:
harddisk-1.gif


Khi ghi file vào HDD, không phải hệ thống ghi từ byte, từng bit vào từng vị trí trên HDD mà nó căn theo dung lượng để ghi vào cluster tương ứng. Ở ví dụ trên cho thấy file có dung lượng 4byte chiếm nguyên 16KB (1 cluster). Nếu file có dung lượng 16KB + 1byte sẽ chiếm 32KB (2 cluster)

Rõ ràng kích thước của cluster càng lớn, ta càng không có lợi. Tuy nhiên do số lượng cluster bị giới hạn nên với các partition có dung lượng lớn thì buộc các cluster phải có kích thước lớn.

- Tất nhiên, không phải chia ổ cứng thật là vụn ra để quản lý thật nhiều partition là có lợi nhất. Tuy nhiên nếu chia ổ cứng thành một số partition nhất định, bạn có thể quản lý hệ thống dữ liệu của mình một cách khoa học, giảm bớt thao tác tìm kiếm, đồng thời giảm thiểu dung lượng hao phí.
 
Xem bác nvb87 nói thì mình cũng không hiểu lãng phí ở chỗ nào nữa. Khi cần vẫn còn đủ chỗ cho dữ liệu nếu chịu khó chép từng phần riêng biệt mà. Có lãng phí cái gì đâu.
Còn mít Việt ơi. Bản Fat NTFS thì cũng không có hạn chế nhiều về dung lượng cluster hay số lượng nhiều đâu. Có thể chọn kích thước cluster tùy ý mà. Tuy nhiên đặt mặc định thì tốt nhất.
Ưu điểm việc chia Partition là quản lý tốt các file. Tùy theo yêu cầu sử dụng mà việc phân chia khác nhau. Có thể là cài nhiều hệ điều hành, recovery , mức độ quan trọng Dữ liệu ... mà chọn cách khác nhau. Bác nào bị hỏng ổ cứng (bad) mà cần recovery mà không biết dữ liệu ở đoạn nào trong ổ cứng thì vất vả hơn nhiều.
 
...tôi khẳng định việc Defragment có thể tăng tới 30% tốc độ làm việc đối với những file có dung lượng lớn.
Cách đây vài năm hoặc sử dụng HDD có tốc độ quay dưới 4200rpm thì câu phát biểu trên là hoàn toàn chính xác. Nhưng đến bây giờ thì nó không còn đúng nữa. Đơn giản là vì HDD đã có tốc độ quay rất cao + Seek Time đã được cải tiến đáng kể.
Ta chỉ xét riêng phần dung lượng hao phí cho việc để trống ổ:
Trong trường hợp ổ 500 GB ta tạo các thư mục rồi cóp dữ liệu vào, cho đến khi ổ còn trống vài @ MB ( @ << ), thì cũng chẳng nên mà cũng chẳng thể nhồi nhét nữa!

Nếu phân thành 10 partition để phân chia dữ liệu, mỗi partition tương ứng một folder của trường hợp trên. Cũng thực hiện thao tác cóp dữ liệu và mỗi ổ sẽ lại phải bỏ trống 1 khoảng @1, @2, @3, @4 ... @10
Ý của nvb87 có thể tóm lại là: Rất hiếm khi User có thể ghi hết Capacity của 1 Partition vì còn phụ thuộc vào Capacity của file được sử dụng. Do đó, sẽ có một lượng Capacity nhất định không được sử dụng đến. Như vậy, nếu có nhiều Partition thì lượng hao phí này càng nhiều theo suy luận logic. Vì thế, ý kiến của nvb87 là có cơ sở.
Rõ ràng kích thước của cluster càng lớn, ta càng không có lợi. Tuy nhiên do số lượng cluster bị giới hạn nên với các partition có dung lượng lớn thì buộc các cluster phải có kích thước lớn.
Số lượng cluster bị giới hạn là đúng nhưng nó không phụ thuộc trực tiếp vào Capacity của Partition hay HDD. Kích thước của cluster là do User quy định khi format HDD, do đó không thể nói là "partition có dung lượng lớn thì buộc các cluster phải có kích thước lớn".
 
Cách đây vài năm hoặc sử dụng HDD có tốc độ quay dưới 4200rpm thì câu phát biểu trên là hoàn toàn chính xác. Nhưng đến bây giờ thì nó không còn đúng nữa. Đơn giản là vì HDD đã có tốc độ quay rất cao + Seek Time đã được cải tiến đáng kể.
Anh đã thử chưa mà kết luận hùng hồn thế :) Anh thử truy xuất ngẫu nhiên dữ liệu trong 1 file RAR hoặc ISO có dung lượng khoảng 2GB xem nào ;) Hoặc anh thử quẳng cái Pagefile của anh vào một phân vùng phân mảnh tùm lum xem thế nào :cool:

Số lượng cluster bị giới hạn là đúng nhưng nó không phụ thuộc trực tiếp vào Capacity của Partition hay HDD. Kích thước của cluster là do User quy định khi format HDD, do đó không thể nói là "partition có dung lượng lớn thì buộc các cluster phải có kích thước lớn".
:eek: Một cái bánh chỉ được cắt làm 5 phần (Số lượng cluster bị giới hạn là đúng - kết luận của anh), vậy mà kích thước của mỗi phần cắt lại không phụ thuộc vào kích thước của cái bánh và người cắt bánh có thể quy định kích thước của mỗi phần trong quá trình cắt bánh (Kích thước của cluster là do User quy định khi format HDD - kết luận của anh) :confused:

Cái này em không giải thích bằng khoa học được.
 
Theo ý kiến của ôi việc defrag và chia HDD đều cần.
- Việc defrag chắc chắn có đem đến hiệu quả nhất định cho việc truy xuất dữ liệu. Cụ thể bao nhiêu % thì tôi ko đo, nhưng rất nhiều máy ở cty mình sau khi defrag thì nó chạy đỡ hơn nhiều. Hơn nữa, nếu việc defrag không có hiệu quả thì win víta chắc đã loại cái món này ra khỏi HĐH rồi. Các nhà sản xuất phần mềm ứng dụng hiện nay cũng vẫn phát triển món này thì không lý gì không có ý nghĩa!!!
- Việc chia HDD thì theo tôi có ích cho bản thân người dùng và tùy thuộc ý định người dùng. Mặc định trên các máy mới, có HĐH có bản quyền thì nó không chia đĩa. Việc chia đĩa chủ yếu do người dùng cần. Tôi thường chia thành 2 ổ (các dịch vụ vi tính thì hay chia 3, theo tôi là không cần thiết), 1 cho HĐH và Program, 1 cho dữ liệu (word, excel, soft, video,...). Như thế, quá trình sử dụng dễ quản lý dữ liệu của mình, khi cần copy hay move cũng nhanh và dễ dàng. Một lợi ích lớn nữa là khi cần cài lại máy, không cần phải lọ mọ copy dữ liệu, cứ pha cà fe và thả đĩa vào cài. Cài xong là làm việc bình thường ngay lập tức.
 
Anh đã thử chưa mà kết luận hùng hồn thế :) Anh thử truy xuất ngẫu nhiên dữ liệu trong 1 file RAR hoặc ISO có dung lượng khoảng 2GB xem nào ;) Hoặc anh thử quẳng cái Pagefile của anh vào một phân vùng phân mảnh tùm lum xem thế nào :cool:
Tớ không dùng file .rar hay .iso mà dùng một folder có khoảng 50.5xx file và folder con với tổng dung lượng khoảng 5.21 GB có được không nhỉ?
Truy xuất bằng cách dùng chức năng search của Windows XP có được gọi là truy xuất ngẫu nhiên không nhỉ?

:eek: Một cái bánh chỉ được cắt làm 5 phần (Số lượng cluster bị giới hạn là đúng - kết luận của anh), vậy mà kích thước của mỗi phần cắt lại không phụ thuộc vào kích thước của cái bánh và người cắt bánh có thể quy định kích thước của mỗi phần trong quá trình cắt bánh (Kích thước của cluster là do User quy định khi format HDD - kết luận của anh) :confused:

Cái này em không giải thích bằng khoa học được.
Đồng chí này có vấn đề về đọc hiểu hay sao ý nhỉ? Tại sao đồng chí lại đánh đồng Cluster với Partition nhỉ?
Số lượng cluster bị giới hạn là đúng nhưng nó không phụ thuộc trực tiếp vào Capacity của Partition hay HDD. Kích thước của cluster là do User quy định khi format HDD, do đó không thể nói là "partition có dung lượng lớn thì buộc các cluster phải có kích thước lớn".
Khi HDD được format, User sẽ có các lựa chọn khác nhau cho kích thước của các cluster (từ 512 bytes - 1 sector đến 32 KB - 64 sector) cho dù Partition đó có Capacity là bao nhiêu đi chăng nữa. Tớ nói 'không phụ thuộc trực tiếp' vì số lượng cluster = Capacity / kích thước của 1 cluster. Như vậy, Capacity cũng có ảnh hưởng đến số lượng cluster, đó là ảnh hưởng gián tiếp.
Tiếp, với một Partition có Capacity = 2TB thì tớ vẫn có thể set kích thước cluster = 512 bytes, một partition có Capacity = 200 MB thì set kích thước cluster = 32 KB cũng không có vấn đề gì.

//Edit : Việc Defragment thực sự là không đem lại hiệu quả cho người dùng, nếu có thì hiệu suất đó cũng nhỏ đến mức không đáng để bỏ ra thời gian và công sức cho việc Defragment. Việc này chỉ để giải quyết vấn đề tâm lý cho người dùng. Tất nhiên xã hội thì 9 người 10 suy nghĩ. Nếu ai thích Defragment thì cứ làm, cũng đâu có ảnh hưởng gì đến người khác, OK?
 
Tớ không dùng file .rar hay .iso mà dùng một folder có khoảng 50.5xx file và folder con với tổng dung lượng khoảng 5.21 GB có được không nhỉ?
Truy xuất bằng cách dùng chức năng search của Windows XP có được gọi là truy xuất ngẫu nhiên không nhỉ?
Dạ không. File lưu trong thư mục được index trước rồi, việc Search file khác hẳn với việc truy xuất ngẫu nhiên file chứ ạ!

Đồng chí này có vấn đề về đọc hiểu hay sao ý nhỉ? Tại sao đồng chí lại đánh đồng Cluster với Partition nhỉ?
Em đánh đồng khi nào nhỉ?

Khi HDD được format, User sẽ có các lựa chọn khác nhau cho kích thước của các cluster (từ 512 bytes - 1 sector đến 32 KB - 64 sector) cho dù Partition đó có Capacity là bao nhiêu đi chăng nữa. Tớ nói 'không phụ thuộc trực tiếp' vì số lượng cluster = Capacity / kích thước của 1 cluster. Như vậy, Capacity cũng có ảnh hưởng đến số lượng cluster, đó là ảnh hưởng gián tiếp.
Tiếp, với một Partition có Capacity = 2TB thì tớ vẫn có thể set kích thước cluster = 512 bytes, một partition có Capacity = 200 MB thì set kích thước cluster = 32 KB cũng không có vấn đề gì.
Thứ nhất, nếu kết luận như thế thì số lượng của cluster trên mỗi Partition là không giới hạn, đối lập với kết luận lần trước của anh
Thứ hai, nếu anh đặt kích thước cluster quá nhỏ khi kích thước Partition lớn thì sẽ bị hiện tượng "Limit Cluster Number" và có thể phát sinh lỗi trong quá trình sử dụng

Việc Defragment thực sự là không đem lại hiệu quả cho người dùng, nếu có thì hiệu suất đó cũng nhỏ đến mức không đáng để bỏ ra thời gian và công sức cho việc Defragment. Việc này chỉ để giải quyết vấn đề tâm lý cho người dùng. Tất nhiên xã hội thì 9 người 10 suy nghĩ. Nếu ai thích Defragment thì cứ làm, cũng đâu có ảnh hưởng gì đến người khác, OK?
Anh kết luận thế rồi thì... đâu còn gì để tranh luận :rolleyes:
"Ai thích làm thì làm, đâu ảnh hưởng đến ai" :cool:

Mà kể cũng lạ, nếu Defragment không mang lại ích lợi như thế, sao Microsoft cứ phải cố gắng tích hợp tính năng đó vào Windows làm gì nhỉ. Và tại sao những phần mềm Defragment chuyên nghiệp lại có thể bán với giá hàng chục USD nhỉ?
 
Mà kể cũng lạ, nếu Defragment không mang lại ích lợi như thế, sao Microsoft cứ phải cố gắng tích hợp tính năng đó vào Windows làm gì nhỉ. Và tại sao những phần mềm Defragment chuyên nghiệp lại có thể bán với giá hàng chục USD nhỉ?

Cái này bác MitDac nói rất đúng, nếu nó không có lợi thì Microsoft đã bỏ nó từ lâu rồi chứ không tồn tại đến ngày hôm nay. Có lẽ nó có lợi trong 1 vài trường hợp cụ thể nào đấy.
 
Dạ không. File lưu trong thư mục được index trước rồi, việc Search file khác hẳn với việc truy xuất ngẫu nhiên file chứ ạ!
Nếu tớ không tick vào checkbox 'For fast searching, allow Indexing Service to index this folder' và không chạy Indexing Service thì Windows tạo chỉ mục bằng niềm tin à?
Em đánh đồng khi nào nhỉ?
Vui lòng đọc lại post #13


...số lượng của cluster trên mỗi Partition là không giới hạn, đối lập với kết luận lần trước của anh
Oài, vui lòng đọc lại đoạn sau đi :
Khi HDD được format, User sẽ có các lựa chọn khác nhau cho kích thước của các cluster (từ 512 bytes - 1 sector đến 32 KB - 64 sector) cho dù Partition đó có Capacity là bao nhiêu đi chăng nữa. Tớ nói 'không phụ thuộc trực tiếp' vì số lượng cluster = Capacity / kích thước của 1 cluster. Như vậy, Capacity cũng có ảnh hưởng đến số lượng cluster, đó là ảnh hưởng gián tiếp.
Số lượng cluster là một con số hữu hạn nhueng không phải là hằng số, nó thay đổi tùy theo Capacity của Partition và kích thước của từng cluster.
 

Đính kèm

  • untitled.JPG
    untitled.JPG
    26.4 KB · Lượt xem: 36
Hay thật. Mỗi người hiểu một cách khác nhau nên tranh luận sôi nổi nhỉ.
- Lúc trước thì các bản FAT thường có giới hạn về số lượng cluster (FAT) Khi đó bạn khó có thể chọn kích thước cluster thoải mái.
- Hiện nay thì loại format thông dụng hiện nay là FAT32, NTFS thì giới hạn được đẩy lên cao hơn và xa hơn nên bạn có thể tạm gọi là thoải mái trong sử dụng. Cho nên không nên tranh cãi nhiều về chuyện này.
- Còn về vấn đề có nên Defragment hay không thì mỗi người một ý. Cái nào cũng có cái lợi và cái không lợi riêng. Bởi vì theo nguyên tắc Defragment thì nó sẽ sắp xếp dữ liệu trên HDD sao cho liên tục. Lúc đó việc truy cập sẽ nhanh hơn là đương nhiên rồi. Tuy nhiên trong thực tế thì cũng khó thấy sự thay đổi về mặt tốc độ vì đôi khi ghi dữ liệu cũng ít khi bị phân mảnh nhiều trừ phi HDD sắp đầy. Vì vậy nhiều người cho rằng Defragment không có hiệu quả như mong đợi.
- Vì vậy muốn cho công việc tốt bạn nên tìm cách sử dụng sao cho hợp lý tránh bị phân mảnh dữ liệu thì việc Defragment có thể không cần thiết. Cách của mình thông thường là như vậy: Chia HDD ra thành các partition HDH,dữ liệu động và dữ liệu tĩnh. Dữ liệu động là các file đang làm cần đọc ghi nhiều lần (Làm xong thì di chuyển qua phần dữ liệu tĩnh). Các file tĩnh là dữ liệu chỉ đọc . Còn HDH thì do khi cài dĩa trống nên thật sự nó chỉ có ghi liên tục ở phần đầu của partition nên cũng không cần Defragment nữa.
Vài lời góp ý. Chúc vui
 
Hì hì, vậy chuyển từ tranh luận sang Cafe :D

Cách hiểu vấn đề của anh DungHD và của em có khác nhau chút xíu nên tranh luận hơi... căng thẳng :)

Em thấy nên kết luận thế này:
- Defragment có tăng tốc độ lên chút xíu.
- Mức độ tăng thì tùy loại file, mức độ sử dụng và quan điểm của mỗi người.
- Bác nào rảnh thì Defragment, nói chung là tốt. Bác nào bận bịu hoặc thấy mất thời gian thì thôi, cũng không chết ai cả.
- Ổ thì nên chia ra, không nên để dùng cả cái ổ to đùng. Tất nhiên chia chác thế nào thì tùy nhu cầu sử dụng, nhưng nói chung hao phí là chấp nhận được, làm thế nào thuận tiện trong quản lý thông tin là được!

Như thế đã OK chưa nhỉ?
 
Back
Top