Replace lsdir system call by readdir, isdir system calls,
[pintos-anon] / TODO
1 -*- text -*-
2
3 Godmar says:
4
5 - In Project 2, we're missing tests that pass arguments to system calls
6 that span multiple pages, where some are mapped and some are not. 
7 An implementation that only checks the first page, rather than all pages 
8 that can be touched during a call to read()/write() passes all tests.
9
10 - Need some tests that test that illegal accesses lead to process
11 termination. I have written some, will add them. In P2, obviously, 
12 this would require that the students break this functionality since 
13 the page directory is initialized for them, still it would be good 
14 to have.
15
16 - There does not appear to be a test that checks that they close all
17 fd's on exit.  Idea: add statistics & self-diagnostics code to palloc.c
18 and malloc.c.  Self-diagnostics code could be used for debugging.
19 The statistics code would report how much kernel memory is free.
20 Add a system call "get_kernel_memory_information".  User programs
21 could engage in a variety of activities and notice leaks by checking
22 the kernel memory statistics.
23
24 From: Godmar Back <godmar@gmail.com>
25 Subject: on caching in project 4
26 To: Ben Pfaff <blp@cs.stanford.edu>
27 Date: Mon, 9 Jan 2006 20:58:01 -0500
28
29 here's an idea for future semesters.
30
31 I'm in the middle of project 4, I've started by implementing a buffer
32 cache and plugging it into the existing filesystem.  Along the way I
33 was wondering how we could test the cache.
34
35 Maybe one could adopt a similar testing strategy as in project 1 for
36 the MLQFS scheduler: add a function that reads "get_cache_accesses()"
37 and a function "get_cache_hits()".  Then create a version of pintos
38 that creates access traces for a to-be-determined workload.  Run an
39 off-line analysis that would determine how many hits a perfect cache
40 would have (MAX), and how much say an LRU strategy would give (MIN).
41 Then add a fudge factor to account for different index strategies and
42 test that the reported number of cache hits/accesses is within (MIN,
43 MAX) +/- fudge factor.
44
45 (As an aside - I am curious why you chose to use a clock-style
46 algorithm rather than the more straightforward LRU for your buffer
47 cache implementation in your sample solution. Is there a reason for
48 that?  I was curious to see if it made a difference, so I implemented
49 LRU for your cache implementation and ran the test workload of project
50 4 and printed cache hits/accesses.
51 I found that for that workload, the clock-based algorithm performs
52 almost identical to LRU (within about 1%, but I ran nondeterministally
53 with QEMU). I then reduced the cache size to 32 blocks and found again
54 the same performance, which raises the suspicion that the test
55 workload might not force any cache replacement, so the eviction
56 strategy doesn't matter.)
57
58 * Get rid of rox--causes more trouble than it's worth
59
60 * Reconsider command line arg style--confuses everyone.
61
62 * Finish writing tour.
63
64 via Godmar Back:
65
66 * Get rid of mmap syscall, add sbrk.
67
68 * page-linear, page-shuffle VM tests do not use enough memory to force
69   eviction.  Should increase memory consumption.
70
71 * Add FS persistence test(s).
72
73 * process_death test needs improvement
74
75 * Internal tests.
76
77 * Filesys project:
78
79   - Need a better way to measure performance improvement of buffer
80     cache.  Some students reported that their system was slower with
81     cache--likely, Bochs doesn't simulate a disk with a realistic
82     speed.
83
84 * Documentation:
85
86   - Add "Digging Deeper" sections that describe the nitty-gritty x86
87     details for the benefit of those interested.
88
89   - Add explanations of what "real" OSes do to give students some
90     perspective.
91
92 * Assignments:
93
94   - Add extra credit:
95
96     . Specifics on how to implement sbrk, malloc.
97
98     . Other good ideas.
99
100     . everything needed for getcwd()
101
102 To add partition support:
103
104 - Find four partition types that are more or less unused and choose to
105   use them for Pintos.  (This is implemented.)
106
107 - Bootloader reads partition tables of all BIOS devices to find the
108   first that has the "Pintos kernel" partition type.  (This is
109   implemented.)  Ideally the bootloader would make sure there is
110   exactly one such partition, but I didn't implement that yet.
111
112 - Bootloader reads kernel into memory at 1 MB using BIOS calls.  (This
113   is implemented.)
114
115 - Kernel arguments have to go into a separate sector because the
116   bootloader is otherwise too big to fit now?  (I don't recall if I
117   did anything about this.)
118
119 - Kernel at boot also scans partition tables of all the disks it can
120   find to find the ones with the four Pintos partition types (perhaps
121   not all exist).  After that, it makes them available to the rest of
122   the kernel (and doesn't allow access to other devices, for safety).
123
124 - "pintos" and "pintos-mkdisk" need to write a partition table to the
125   disks that they create.  "pintos-mkdisk" will need to take a new
126   parameter specifying the type.  (I might have partially implemented
127   this, don't remember.)
128
129 - "pintos" should insist on finding a partition header on disks handed
130   to it, for safety.
131
132 - Need some way for "pintos" to assemble multiple disks or partitions
133   into a single image that can be copied directly to a USB block
134   device.  (I don't know whether I came up with a good solution yet or
135   not, or whether I implemented any of it.)
136
137 To add USB support:
138
139 - Needs to be able to scan PCI bus for UHCI controller.  (I
140   implemented this partially.)
141
142 - May want to be able to initialize USB controllers over CardBus
143   bridges.  I don't know whether this requires additional work or if
144   it's useful enough to warrant extra work.  (It's of special interest
145   for me because I have a laptop that only has USB via CardBus.)
146
147 - There are many protocol layers involved: SCSI over USB-Mass Storage
148   over USB over UHCI over PCI.  (I may be forgetting one.)  I don't
149   know yet whether it's best to separate the layers or to merge (some
150   of) them.  I think that a simple and clean organization should be a
151   priority.
152
153 - VMware can likely be used for testing because it can expose host USB
154   devices as guest USB devices.  This is safer and more convenient
155   than using real hardware for testing.
156
157 - Should test with a variety of USB keychain devices because there
158   seems to be wide variation among them, especially in the SCSI
159   protocols they support.  Should try to use a "lowest-common
160   denominator" SCSI protocol if any such thing really exists.
161
162 - Might want to add a feature whereby kernel arguments can be given
163   interactively, rather than passed on-disk.  Needs some though.