Clarification.
[pintos-anon] / doc / threads.texi
1 @node Project 1--Threads, Project 2--User Programs, Pintos Tour, Top
2 @chapter Project 1: Threads
3
4 In this assignment, we give you a minimally functional thread system.
5 Your job is to extend the functionality of this system to gain a
6 better understanding of synchronization problems. Additionally, you
7 will use at least part of this increased functionality in future
8 assignments.
9
10 You will be working in primarily in the @file{threads} directory for
11 this assignment, with some work in the @file{devices} directory on the
12 side.  Compilation should be done in the @file{threads} directory.
13
14 Before you read the description of this project, you should read all
15 of the following sections: @ref{Introduction}, @ref{Coding Standards},
16 @ref{Project Documentation}, @ref{Debugging Tools}, and
17 @ref{Development Tools}.  You should at least skim the material in
18 @ref{Threads Tour}.  To complete this project you will also need to
19 read @ref{Multilevel Feedback Scheduling}.
20
21 @menu
22 * Understanding Threads::       
23 * Project 1 Code::              
24 * Debugging versus Testing::    
25 * Tips::                        
26 * Problem 1-1 Alarm Clock::     
27 * Problem 1-2 Join::            
28 * Problem 1-3 Priority Scheduling::  
29 * Problem 1-4 Advanced Scheduler::  
30 * Threads FAQ::                 
31 @end menu
32
33 @node Understanding Threads
34 @section Understanding Threads
35
36 The first step is to read and understand the initial thread system.
37 Pintos, by default, implements thread creation and thread completion,
38 a simple scheduler to switch between threads, and synchronization
39 primitives (semaphores, locks, and condition variables). 
40
41 However, there's a lot of magic going on in some of this code, so if
42 you haven't already compiled and run the base system, as described in
43 the introduction (@pxref{Introduction}), you should do so now.  You
44 can read through parts of the source code by hand to see what's going
45 on.  If you like, you can add calls to @func{printf} almost
46 anywhere, then recompile and run to see what happens and in what
47 order.  You can also run the kernel in a debugger and set breakpoints
48 at interesting spots, single-step through code and examine data, and
49 so on.  @xref{i386-elf-gdb}, for more information.
50
51 When a thread is created, you are creating a new context to be
52 scheduled. You provide a function to be run in this context as an
53 argument to @func{thread_create}. The first time the thread is
54 scheduled and runs, it will start from the beginning of that function
55 and execute it in the context. When that function returns, that thread
56 completes. Each thread, therefore, acts like a mini-program running
57 inside Pintos, with the function passed to @func{thread_create}
58 acting like @func{main}.
59
60 At any given time, Pintos is running exactly one thread, with the
61 others switched out.  The scheduler decides which thread to run next
62 when it needs to switch between them.  (If no thread is ready to run
63 at any given time, then the special ``idle'' thread runs.)  The
64 synchronization primitives are used to force context switches when one
65 thread needs to wait for another thread to do something.
66
67 The exact mechanics of a context switch are pretty gruesome and have
68 been provided for you in @file{threads/switch.S} (this is 80@var{x}86
69 assembly; don't worry about understanding it).  It involves saving the
70 state of the currently running thread and restoring the state of the
71 thread we're switching to.
72
73 Using the @command{gdb} debugger, slowly trace through a context
74 switch to see what happens (@pxref{i386-elf-gdb}).  You can set a
75 breakpoint on the @func{schedule} function to start out, and then
76 single-step from there.@footnote{@command{gdb} might tell you that
77 @func{schedule} doesn't exist, which is arguably a @command{gdb} bug.
78 You can work around this by setting the breakpoint by filename and
79 line number, e.g.@: @code{break thread.c:@var{ln}} where @var{ln} is
80 the line number of the first declaration in @func{schedule}.}  Be sure
81 to keep track of each thread's address
82 and state, and what procedures are on the call stack for each thread.
83 You will notice that when one thread calls @func{switch_threads},
84 another thread starts running, and the first thing the new thread does
85 is to return from @func{switch_threads}.  We realize this comment will
86 seem cryptic to you at this point, but you will understand threads
87 once you understand why the @func{switch_threads} that gets called is
88 different from the @func{switch_threads} that returns.
89
90 @strong{Warning}: In Pintos, each thread is assigned a small,
91 fixed-size execution stack just under @w{4 kB} in size.  The kernel
92 does try to detect stack overflow, but it cannot always succeed.  You
93 may cause bizarre problems, such as mysterious kernel panics, if you
94 declare large data structures as non-static local variables,
95 e.g. @samp{int buf[1000];}.  Alternatives to stack allocation include
96 the page allocator in @file{threads/palloc.c} and the block allocator
97 in @file{threads/malloc.c}.  Note that the page allocator doles out
98 @w{4 kB} chunks and that @func{malloc} has a @w{2 kB} block size
99 limit.  If you need larger chunks, consider using a linked structure
100 instead.
101
102 @node Project 1 Code
103 @section Code
104
105 Here is a brief overview of the files in the @file{threads}
106 directory.  You will not need to modify most of this code, but the
107 hope is that presenting this overview will give you a start on what
108 code to look at.
109
110 @table @file
111 @item loader.S
112 @itemx loader.h
113 The kernel loader.  Assembles to 512 bytes of code and data that the
114 PC BIOS loads into memory and which in turn loads the kernel into
115 memory, does basic processor initialization, and jumps to the
116 beginning of the kernel.  You should not need to look at this code or
117 modify it.
118
119 @item kernel.lds.S
120 The linker script used to link the kernel.  Sets the load address of
121 the kernel and arranges for @file{start.S} to be at the very beginning
122 of the kernel image.  Again, you should not need to look at this code
123 or modify it, but it's here in case you're curious.
124
125 @item start.S
126 Jumps to @func{main}.
127
128 @item init.c
129 @itemx init.h
130 Kernel initialization, including @func{main}, the kernel's ``main
131 program.''  You should look over @func{main} at least to see what
132 gets initialized.
133
134 @item thread.c
135 @itemx thread.h
136 Basic thread support.  Much of your work will take place in these
137 files.  @file{thread.h} defines @struct{thread}, which you will
138 modify in the first three projects.
139
140 @item switch.S
141 @itemx switch.h
142 Assembly language routine for switching threads.  Already discussed
143 above.
144
145 @item palloc.c
146 @itemx palloc.h
147 Page allocator, which hands out system memory in multiples of 4 kB
148 pages.
149
150 @item malloc.c
151 @itemx malloc.h
152 A very simple implementation of @func{malloc} and @func{free} for
153 the kernel.
154
155 @item interrupt.c
156 @itemx interrupt.h
157 Basic interrupt handling and functions for turning interrupts on and
158 off.
159
160 @item intr-stubs.pl
161 @itemx intr-stubs.h
162 A Perl program that outputs assembly for low-level interrupt handling.
163
164 @item synch.c
165 @itemx synch.h
166 Basic synchronization primitives: semaphores, locks, and condition
167 variables.  You will need to use these for synchronization through all
168 four projects.
169
170 @item test.c
171 @itemx test.h
172 Test code.  For project 1, you will replace this file with your test
173 cases.
174
175 @item io.h
176 Functions for I/O port access.  This is mostly used by source code in
177 the @file{devices} directory that you won't have to touch.
178
179 @item mmu.h
180 Functions and macros related to memory management, including page
181 directories and page tables.  This will be more important to you in
182 project 3.  For now, you can ignore it.
183 @end table
184
185 @menu
186 * devices code::                
187 * lib files::                   
188 @end menu
189
190 @node devices code
191 @subsection @file{devices} code
192
193 The basic threaded kernel also includes these files in the
194 @file{devices} directory:
195
196 @table @file
197 @item timer.c
198 @itemx timer.h
199 System timer that ticks, by default, 100 times per second.  You will
200 modify this code in Problem 1-1.
201
202 @item vga.c
203 @itemx vga.h
204 VGA display driver.  Responsible for writing text to the screen.
205 You should have no need to look at this code.  @func{printf} will
206 call into the VGA display driver for you, so there's little reason to
207 call this code yourself.
208
209 @item serial.c
210 @itemx serial.h
211 Serial port driver.  Again, @func{printf} calls this code for you,
212 so you don't need to do so yourself.  Feel free to look through it if
213 you're curious.
214
215 @item disk.c
216 @itemx disk.h
217 Supports reading and writing sectors on up to 4 IDE disks.  This won't
218 actually be used until project 2.
219
220 @item intq.c
221 @itemx intq.h
222 Interrupt queue, for managing a circular queue that both kernel
223 threads and interrupt handlers want to access.  Used by the keyboard
224 and serial drivers.
225 @end table
226
227 @node lib files
228 @subsection @file{lib} files
229
230 Finally, @file{lib} and @file{lib/kernel} contain useful library
231 routines.  (@file{lib/user} will be used by user programs, starting in
232 project 2, but it is not part of the kernel.)  Here's a few more
233 details:
234
235 @table @file
236 @item ctype.h
237 @itemx inttypes.h
238 @itemx limits.h
239 @itemx stdarg.h
240 @itemx stdbool.h
241 @itemx stddef.h
242 @itemx stdint.h
243 @itemx stdio.c
244 @itemx stdio.h
245 @itemx stdlib.c
246 @itemx stdlib.h
247 @itemx string.c
248 @itemx string.h
249 Implementation of the standard C library.  @xref{C99}, for information
250 on a few recently introduced pieces of the C library that you might
251 not have encountered before.  @xref{Unsafe String Functions}, for
252 information on what's been intentionally left out for safety.
253
254 @item debug.c
255 @itemx debug.h
256 Functions and macros to aid debugging.  @xref{Debugging Tools}, for
257 more information.
258
259 @item random.c
260 @itemx random.h
261 Pseudo-random number generator.
262
263 @item round.h
264 Macros for rounding.
265
266 @item syscall-nr.h
267 System call numbers.  Not used until project 2.
268
269 @item kernel/list.c
270 @itemx kernel/list.h
271 Doubly linked list implementation.  Used all over the Pintos code, and
272 you'll probably want to use it a few places yourself in project 1.
273
274 @item kernel/bitmap.c
275 @itemx kernel/bitmap.h
276 Bitmap implementation.  You can use this in your code if you like, but
277 you probably won't have any need for project 1.
278
279 @item kernel/hash.c
280 @itemx kernel/hash.h
281 Hash table implementation.  Likely to come in handy for project 3.
282
283 @item kernel/console.c
284 @itemx kernel/console.h
285 Implements @func{printf} and a few other functions.
286 @end table
287
288 @node Debugging versus Testing
289 @section Debugging versus Testing
290
291 When you're debugging code, it's useful to be able to be able to run a
292 program twice and have it do exactly the same thing.  On second and
293 later runs, you can make new observations without having to discard or
294 verify your old observations.  This property is called
295 ``reproducibility.''  The simulator we use, Bochs, can be set up for
296 reproducibility, and that's the way that @command{pintos} invokes it
297 by default.
298
299 Of course, a simulation can only be reproducible from one run to the
300 next if its input is the same each time.  For simulating an entire
301 computer, as we do, this means that every part of the computer must be
302 the same.  For example, you must use the same disks, the same version
303 of Bochs, and you must not hit any keys on the keyboard (because you
304 could not be sure to hit them at exactly the same point each time)
305 during the runs.
306
307 While reproducibility is useful for debugging, it is a problem for
308 testing thread synchronization, an important part of this project.  In
309 particular, when Bochs is set up for reproducibility, timer interrupts
310 will come at perfectly reproducible points, and therefore so will
311 thread switches.  That means that running the same test several times
312 doesn't give you any greater confidence in your code's correctness
313 than does running it only once.
314
315 So, to make your code easier to test, we've added a feature, called
316 ``jitter,'' to Bochs, that makes timer interrupts come at random
317 intervals, but in a perfectly predictable way.  In particular, if you
318 invoke @command{pintos} with the option @option{-j @var{seed}}, timer
319 interrupts will come at irregularly spaced intervals.  Within a single
320 @var{seed} value, execution will still be reproducible, but timer
321 behavior will change as @var{seed} is varied.  Thus, for the highest
322 degree of confidence you should test your code with many seed values.
323
324 On the other hand, when Bochs runs in reproducible mode, timings are not
325 realistic, meaning that a ``one-second'' delay may be much shorter or
326 even much longer than one second.  You can invoke @command{pintos} with
327 a different option, @option{-r}, to make it set up Bochs for realistic
328 timings, in which a one-second delay should take approximately one
329 second of real time.  Simulation in real-time mode is not reproducible,
330 and options @option{-j} and @option{-r} are mutually exclusive.
331
332 @node Tips
333 @section Tips
334
335 There should be no busy-waiting in any of your solutions to this
336 assignment.  Furthermore, to the greatest extent possible, resist the
337 temptation to directly disable interrupts in your solution by calling
338 @func{intr_disable} or @func{intr_set_level}, although you may find
339 doing so to be useful while debugging.  Instead, use semaphores, locks
340 and condition variables to solve synchronization problems.  Read the
341 tour section on synchronization (@pxref{Synchronization}) or the
342 comments in @file{threads/synch.h} if you're unsure what
343 synchronization primitives may be used in what situations.
344
345 Given some designs of some problems, there may be one or two instances
346 in which it is appropriate to directly change the interrupt levels
347 instead of relying on the given synchroniztion primitives.  This must
348 be justified in your @file{DESIGNDOC} file.  If you're not sure you're
349 justified, ask!
350
351 While all parts of this assignment are required if you intend to earn
352 full credit on this project, keep in mind that Problem 1-2 (Join) will
353 be needed for future assignments, so you'll want to get this one
354 right.  We don't give out solutions, so you're stuck with your Join
355 code for the whole quarter.  Problem 1-1 (Alarm Clock) could be very
356 handy, but not strictly required in the future.  The upshot of all
357 this is that you should focus heavily on making sure that your
358 implementation of @func{thread_join} works correctly, since if it's
359 broken, you will need to fix it for future assignments.  The other
360 parts can be turned off in the future if you find you can't make them
361 work quite right.
362
363 Also keep in mind that Problem 1-4 (the MLFQS) builds on the features you
364 implement in Problem 1-3, so to avoid unnecessary code duplication, it
365 would be a good idea to divide up the work among your team members
366 such that you have Problem 1-3 fully working before you begin to tackle
367 Problem 1-4.
368
369 @node Problem 1-1 Alarm Clock
370 @section Problem 1-1: Alarm Clock
371
372 Improve the implementation of the timer device defined in
373 @file{devices/timer.c} by reimplementing @func{timer_sleep}.
374 Threads call @code{timer_sleep(@var{x})} to suspend execution until
375 time has advanced by at least @w{@var{x} timer ticks}.  This is
376 useful for threads that operate in real-time, for example, for
377 blinking the cursor once per second.  There is no requirement that
378 threads start running immediately after waking up; just put them on
379 the ready queue after they have waited for approximately the right
380 amount of time.
381
382 A working implementation of this function is provided.  However, the
383 version provided is poor, because it ``busy waits,'' that is, it spins
384 in a tight loop checking the current time until the current time has
385 advanced far enough.  This is undesirable because it wastes time that
386 could potentially be used more profitably by another thread.  Your
387 solution should not busy wait.
388
389 The argument to @func{timer_sleep} is expressed in timer ticks, not in
390 milliseconds or any another unit.  There are @code{TIMER_FREQ} timer
391 ticks per second, where @code{TIMER_FREQ} is a macro defined in
392 @code{devices/timer.h}.
393
394 Separate functions @func{timer_msleep}, @func{timer_usleep}, and
395 @func{timer_nsleep} do exist for sleeping a specific number of
396 milliseconds, microseconds, or nanoseconds, respectively, but these will
397 call @func{timer_sleep} automatically when necessary.  You do not need
398 to modify them.
399
400 If your delays seem too short or too long, reread the explanation of the
401 @option{-r} option to @command{pintos} (@pxref{Debugging versus
402 Testing}).
403
404 @node Problem 1-2 Join
405 @section Problem 1-2: Join
406
407 Implement @code{thread_join(tid_t)} in @file{threads/thread.c}.  There
408 is already a prototype for it in @file{threads/thread.h}, which you
409 should not change.  This function causes the currently running thread
410 to block until the thread whose thread id is passed as an argument
411 exits.  If @var{A} is the running thread and @var{B} is the argument,
412 then we say that ``@var{A} joins @var{B}.''
413
414 Incidentally, we don't use @code{struct thread *} as
415 @func{thread_join}'s parameter type because a thread pointer is not
416 unique over time.  That is, when a thread dies, its memory may be,
417 whether immediately or much later, reused for another thread.  If
418 thread A over time had two children B and C that were stored at the
419 same address, then @code{thread_join(@var{B})} and
420 @code{thread_join(@var{C})} would be ambiguous.  Introducing a thread
421 id or @dfn{tid}, represented by type @code{tid_t}, that is
422 intentionally unique over time solves the problem.  The provided code
423 uses an @code{int} for @code{tid_t}, but you may decide you prefer to
424 use some other type.
425
426 The model for @func{thread_join} is the @command{wait} system call
427 in Unix-like systems.  (Try reading the manpages.)  That system call
428 can only be used by a parent process to wait for a child's death.  You
429 should implement @func{thread_join} to have the same restriction.
430 That is, a thread may only join its immediate children.
431
432 A thread need not ever be joined.  Your solution should properly free
433 all of a thread's resources, including its @struct{thread},
434 whether it is ever joined or not, and regardless of whether the child
435 exits before or after its parent.  That is, a thread should be freed
436 exactly once in all cases.
437
438 Joining a given thread is idempotent.  That is, joining a thread T
439 multiple times is equivalent to joining it once, because T has already
440 exited at the time of the later joins.  Thus, joins on T after the
441 first should return immediately.
442
443 Calling @func{thread_join} on an thread that is not the caller's
444 child should cause the caller to return immediately.
445
446 Consider all the ways a join can occur: nested joins (@var{A} joins
447 @var{B}, then @var{B} joins @var{C}), multiple joins (@var{A} joins
448 @var{B}, then @var{A} joins @var{C}), and so on.  Does your join work
449 if @func{thread_join} is called on a thread that has not yet been
450 scheduled for the first time?  You should handle all of these cases.
451 Write test code that demonstrates the cases your join works for.
452 Don't overdo the output volume, please!
453
454 Be careful to program this function correctly.  You will need its
455 functionality for project 2.
456
457 Once you've implemented @func{thread_join}, define
458 @code{THREAD_JOIN_IMPLEMENTED} in @file{constants.h}.
459 @xref{Conditional Compilation}, for more information.
460
461 @node Problem 1-3 Priority Scheduling
462 @section Problem 1-3: Priority Scheduling
463
464 Implement priority scheduling in Pintos.  Priority scheduling is a key
465 building block for real-time systems.  Implement functions
466 @func{thread_set_priority} to set the priority of the running thread
467 and @func{thread_get_priority} to get the running thread's priority.
468 (This API only allows a thread to examine and modify its own
469 priority.)  There are already prototypes for these functions in
470 @file{threads/thread.h}, which you should not change.
471
472 Thread priority ranges from @code{PRI_MIN} (0) to @code{PRI_MAX} (59).
473 The initial thread priority is passed as an argument to
474 @func{thread_create}.  If there's no reason to choose another
475 priority, use @code{PRI_DEFAULT} (29).  The @code{PRI_} macros are
476 defined in @file{threads/thread.h}, and you should not change their
477 values.
478
479 When a thread is added to the ready list that has a higher priority
480 than the currently running thread, the current thread should
481 immediately yield the processor to the new thread.  Similarly, when
482 threads are waiting for a lock, semaphore or condition variable, the
483 highest priority waiting thread should be woken up first.  A thread
484 may set its priority at any time.
485
486 One issue with priority scheduling is ``priority inversion'': if a
487 high priority thread needs to wait for a low priority thread (for
488 instance, for a lock held by a low priority thread, or in
489 @func{thread_join} for a thread to complete), and a middle priority
490 thread is on the ready list, then the high priority thread will never
491 get the CPU because the low priority thread will not get any CPU time.
492 A partial fix for this problem is to have the waiting thread
493 ``donate'' its priority to the low priority thread while it is holding
494 the lock, then recall the donation once it has acquired the lock.
495 Implement this fix.
496
497 You will need to account for all different orders in which priority
498 donation and inversion can occur.  Be sure to handle multiple
499 donations, in which multiple priorities are donated to a thread.  You
500 must also handle nested donation: given high, medium, and low priority
501 threads @var{H}, @var{M}, and @var{L}, respectively, if @var{H} is
502 waiting on a lock that @var{M} holds and @var{M} is waiting on a lock
503 that @var{L} holds, then both @var{M} and @var{L} should be boosted to
504 @var{H}'s priority.
505
506 You only need to implement priority donation when a thread is waiting
507 for a lock held by a lower-priority thread.  You do not need to
508 implement this fix for semaphores, condition variables, or joins,
509 although you are welcome to do so.  However, you do need to implement
510 priority scheduling in all cases.
511
512 You may assume a static priority for priority donation, that is, it is
513 not necessary to ``re-donate'' a thread's priority if it changes
514 (although you are free to do so).
515
516 @node Problem 1-4 Advanced Scheduler
517 @section Problem 1-4: Advanced Scheduler
518
519 Implement Solaris's multilevel feedback queue scheduler (MLFQS) to
520 reduce the average response time for running jobs on your system.
521 @xref{Multilevel Feedback Scheduling}, for a detailed description of
522 the MLFQS requirements.
523
524 Demonstrate that your scheduling algorithm reduces response time
525 relative to the original Pintos scheduling algorithm (round robin) for
526 at least one workload of your own design (i.e.@: in addition to the
527 provided test).
528
529 You must write your code so that we can turn the MLFQS on and off at
530 compile time.  By default, it must be off, but we must be able to turn
531 it on by inserting the line @code{#define MLFQS 1} in
532 @file{constants.h}.  @xref{Conditional Compilation}, for details.
533
534 @node Threads FAQ
535 @section FAQ
536
537 @enumerate 1
538 @item
539 @b{I am adding a new @file{.h} or @file{.c} file.  How do I fix the
540 @file{Makefile}s?}@anchor{Adding c or h Files}
541
542 To add a @file{.c} file, edit the top-level @file{Makefile.build}.
543 You'll want to add your file to variable @samp{@var{dir}_SRC}, where
544 @var{dir} is the directory where you added the file.  For this
545 project, that means you should add it to @code{threads_SRC}, or
546 possibly @code{devices_SRC} if you put in the @file{devices}
547 directory.  Then run @code{make}.  If your new file doesn't get
548 compiled, run @code{make clean} and then try again.
549
550 When you modify the top-level @file{Makefile.build}, the modified
551 version should be automatically copied to
552 @file{threads/build/Makefile} when you re-run make.  The opposite is
553 not true, so any changes will be lost the next time you run @code{make
554 clean} from the @file{threads} directory.  Therefore, you should
555 prefer to edit @file{Makefile.build} (unless your changes are meant to
556 be truly temporary).
557
558 There is no need to edit the @file{Makefile}s to add a @file{.h} file.
559
560 @item
561 @b{How do I write my test cases?}
562
563 Test cases should be replacements for the existing @file{test.c}
564 file.  Put them in a @file{threads/testcases} directory.
565 @xref{TESTCASE}, for more information.
566
567 @item
568 @b{Why can't I disable interrupts?}
569
570 Turning off interrupts should only be done for short amounts of time,
571 or else you end up losing important things such as disk or input
572 events.  Turning off interrupts also increases the interrupt handling
573 latency, which can make a machine feel sluggish if taken too far.
574 Therefore, in general, setting the interrupt level should be used
575 sparingly.  Also, any synchronization problem can be easily solved by
576 turning interrupts off, since while interrupts are off, there is no
577 concurrency, so there's no possibility for race condition.
578
579 To make sure you understand concurrency well, we are discouraging you
580 from taking this shortcut at all in your solution.  If you are unable
581 to solve a particular synchronization problem with semaphores, locks,
582 or conditions, or think that they are inadequate for a particular
583 reason, you may turn to disabling interrupts.  If you want to do this,
584 we require in your design document a complete justification and
585 scenario (i.e.@: exact sequence of events) to show why interrupt
586 manipulation is the best solution.  If you are unsure, the TAs can
587 help you determine if you are using interrupts too haphazardly.  We
588 want to emphasize that there are only limited cases where this is
589 appropriate.
590
591 You might find @file{devices/intq.h} and its users to be an
592 inspiration or source of rationale.
593
594 @item
595 @b{Where might interrupt-level manipulation be appropriate?}
596
597 You might find it necessary in some solutions to the Alarm problem.
598
599 You might want it at one small point for the priority scheduling
600 problem.  Note that it is not required to use interrupts for these
601 problems.  There are other, equally correct solutions that do not
602 require interrupt manipulation.  However, if you do manipulate
603 interrupts and @strong{correctly and fully document it} in your design
604 document, we will allow limited use of interrupt disabling.
605
606 @item
607 @b{What does ``warning: no previous prototype for `@var{function}''
608 mean?}
609
610 It means that you defined a non-@code{static} function without
611 preceding it by a prototype.  Because non-@code{static} functions are
612 intended for use by other @file{.c} files, for safety they should be
613 prototyped in a header file included before their definition.  To fix
614 the problem, add a prototype in a header file that you include, or, if
615 the function isn't actually used by other @file{.c} files, make it
616 @code{static}.
617 @end enumerate
618
619 @menu
620 * Problem 1-1 Alarm Clock FAQ::  
621 * Problem 1-2 Join FAQ::        
622 * Problem 1-3 Priority Scheduling FAQ::  
623 * Problem 1-4 Advanced Scheduler FAQ::  
624 @end menu
625
626 @node Problem 1-1 Alarm Clock FAQ
627 @subsection Problem 1-1: Alarm Clock FAQ
628
629 @enumerate 1
630 @item
631 @b{Why can't I use most synchronization primitives in an interrupt
632 handler?}
633
634 As you've discovered, you cannot sleep in an external interrupt
635 handler.  Since many lock, semaphore, and condition variable functions
636 attempt to sleep, you won't be able to call those in
637 @func{timer_interrupt}.  You may still use those that never sleep.
638
639 Having said that, you need to make sure that global data does not get
640 updated by multiple threads simultaneously executing
641 @func{timer_sleep}.  Here are some pieces of information to think
642 about:
643
644 @enumerate a
645 @item
646 Interrupts are turned off while @func{timer_interrupt} runs.  This
647 means that @func{timer_interrupt} will not be interrupted by a
648 thread running in @func{timer_sleep}.
649
650 @item
651 A thread in @func{timer_sleep}, however, can be interrupted by a
652 call to @func{timer_interrupt}, except when that thread has turned
653 off interrupts.
654
655 @item
656 Examples of synchronization mechanisms have been presented in lecture.
657 Going over these examples should help you understand when each type is
658 useful or needed.  @xref{Synchronization}, for specific information
659 about synchronization in Pintos.
660 @end enumerate
661
662 @item
663 @b{What about timer overflow due to the fact that times are defined as
664 integers? Do I need to check for that?}
665
666 Don't worry about the possibility of timer values overflowing.  Timer
667 values are expressed as signed 63-bit numbers, which at 100 ticks per
668 second should be good for almost 2,924,712,087 years.
669
670 @item
671 @b{The test program mostly works but reports a few out-of-order
672 wake ups.  I think it's a problem in the test program.  What gives?}
673 @anchor{Out of Order 1-1}
674
675 This test is inherently full of race conditions.  On a real system it
676 wouldn't work perfectly all the time either.  There are a few ways you
677 can help it work more reliably:
678
679 @itemize @bullet
680 @item
681 Make time slices longer by increasing @code{TIME_SLICE} in
682 @file{timer.c} to a large value, such as 100.
683
684 @item
685 Make the timer tick more slowly by decreasing @code{TIMER_FREQ} in
686 @file{timer.h} to its minimum value of 19.
687 @end itemize
688
689 The former two changes are only desirable for testing problem 1-1 and
690 possibly 1-3.  You should revert them before working on other parts
691 of the project or turn in the project.
692
693 @item
694 @b{Should @file{p1-1.c} be expected to work with the MLFQS turned on?}
695
696 No.  The MLFQS will adjust priorities, changing thread ordering.
697 @end enumerate
698
699 @node Problem 1-2 Join FAQ
700 @subsection Problem 1-2: Join FAQ
701
702 @enumerate 1
703 @item
704 @b{Am I correct to assume that once a thread is deleted, it is no
705 longer accessible by the parent (i.e.@: the parent can't call
706 @code{thread_join(child)})?}
707
708 A parent joining a child that has completed should be handled
709 gracefully and should act as a no-op.
710 @end enumerate
711
712 @node Problem 1-3 Priority Scheduling FAQ
713 @subsection Problem 1-3: Priority Scheduling FAQ
714
715 @enumerate 1
716 @item
717 @b{Doesn't the priority scheduling lead to starvation? Or do I have to
718 implement some sort of aging?}
719
720 It is true that strict priority scheduling can lead to starvation
721 because thread may not run if a higher-priority thread is runnable.
722 In this problem, don't worry about starvation or any sort of aging
723 technique.  Problem 4 will introduce a mechanism for dynamically
724 changing thread priorities.
725
726 This sort of scheduling is valuable in real-time systems because it
727 offers the programmer more control over which jobs get processing
728 time.  High priorities are generally reserved for time-critical
729 tasks. It's not ``fair,'' but it addresses other concerns not
730 applicable to a general-purpose operating system.
731
732 @item
733 @b{After a lock has been released, does the program need to switch to
734 the highest priority thread that needs the lock (assuming that its
735 priority is higher than that of the current thread)?}
736
737 When a lock is released, the highest priority thread waiting for that
738 lock should be unblocked and put on the ready to run list.  The
739 scheduler should then run the highest priority thread on the ready
740 list.
741
742 @item
743 @b{If a thread calls @func{thread_yield} and then it turns out that
744 it has higher priority than any other threads, does the high-priority
745 thread continue running?}
746
747 Yes.  If there is a single highest-priority thread, it continues
748 running until it blocks or finishes, even if it calls
749 @func{thread_yield}.
750
751 @item
752 @b{If the highest priority thread is added to the ready to run list it
753 should start execution immediately.  Is it immediate enough if I
754 wait until next timer interrupt occurs?}
755
756 The highest priority thread should run as soon as it is runnable,
757 preempting whatever thread is currently running.
758
759 @item
760 @b{What happens to the priority of the donating thread?  Do the priorities
761 get swapped?}
762
763 No.  Priority donation only changes the priority of the low-priority
764 thread.  The donating thread's priority stays unchanged.  Also note
765 that priorities aren't additive: if thread A (with priority 5) donates
766 to thread B (with priority 3), then B's new priority is 5, not 8.
767
768 @item 
769 @b{Can a thread's priority be changed while it is sitting on the ready
770 queue?}
771
772 Yes.  Consider this case: low-priority thread L currently has a lock
773 that high-priority thread H wants.  H donates its priority to L (the
774 lock holder).  L finishes with the lock, and then loses the CPU and is
775 moved to the ready queue.  Now L's old priority is restored while it
776 is in the ready queue.
777
778 @item
779 @b{Can a thread's priority change while it is sitting on the queue of a
780 semaphore?}
781
782 Yes.  Same scenario as above except L gets blocked waiting on a new
783 lock when H restores its priority.
784
785 @item
786 @b{Why is @file{p1-3.c}'s FIFO test skipping some threads?  I know my
787 scheduler is round-robin'ing them like it's supposed to.   Our output
788 starts out okay, but toward the end it starts getting out of order.}
789
790 The usual problem is that the serial output buffer fills up.  This is
791 causing serial_putc() to block in thread @var{A}, so that thread
792 @var{B} is scheduled.  Thread @var{B} immediately tries to do output
793 of its own and blocks on the serial lock (which is held by thread
794 @var{A}).  Now that we've wasted some time in scheduling and locking,
795 typically some characters have been drained out of the serial buffer
796 by the interrupt handler, so thread @var{A} can continue its output.
797 After it finishes, though, some other thread (not @var{B}) is
798 scheduled, because thread @var{B} was already scheduled while we
799 waited for the buffer to drain.
800
801 There's at least one other possibility.  Context switches are being
802 invoked by the test when it explicitly calls @func{thread_yield}.
803 However, the time slice timer is still alive and so, every tick (by
804 default), a thread gets switched out (caused by @func{timer_interrupt}
805 calling @func{intr_yield_on_return}) before it gets a chance to run
806 @func{printf}, effectively skipping it.  If we use a different jitter
807 value, the same behavior is seen where a thread gets started and
808 switched out completely.
809
810 Normally you can fix these problems using the same techniques
811 suggested on problem 1-1 (@pxref{Out of Order 1-1}).
812
813 @item
814 @b{What happens when a thread is added to the ready list which has
815 higher priority than the currently running thread?}
816
817 The correct behavior is to immediately yield the processor.  Your
818 solution must act this way.
819
820 @item
821 @b{What should @func{thread_get_priority} return in a thread while
822 its priority has been increased by a donation?}
823
824 The higher (donated) priority.
825
826 @item
827 @b{Should @file{p1-3.c} be expected to work with the MLFQS turned on?}
828
829 No.  The MLFQS will adjust priorities, changing thread ordering.
830
831 @item
832 @b{@func{printf} in @func{sema_up} or @func{sema_down} makes the
833 system reboot!}
834
835 Yes.  These functions are called before @func{printf} is ready to go.
836 You could add a global flag initialized to false and set it to true
837 just before the first @func{printf} in @func{main}.  Then modify
838 @func{printf} itself to return immediately if the flag isn't set.
839 @end enumerate
840
841 @node Problem 1-4 Advanced Scheduler FAQ
842 @subsection Problem 1-4: Advanced Scheduler FAQ
843
844 @enumerate 1
845 @item
846 @b{What is the interval between timer interrupts?}
847
848 Timer interrupts occur @code{TIMER_FREQ} times per second.  You can
849 adjust this value by editing @file{devices/timer.h}.  The default is
850 100 Hz.
851
852 You can also adjust the number of timer ticks per time slice by
853 modifying @code{TIME_SLICE} in @file{devices/timer.c}.
854
855 @item
856 @b{Do I have to modify the dispatch table?}
857
858 No, although you are allowed to. It is possible to complete
859 this problem (i.e.@: demonstrate response time improvement)
860 without doing so.
861
862 @item
863 @b{When the scheduler changes the priority of a thread, how does this
864 affect priority donation?}
865
866 Short (official) answer: Don't worry about it. Your priority donation
867 code may assume static priority assignment.
868
869 Longer (unofficial) opinion: If you wish to take this into account,
870 however, your design may end up being ``cleaner.''  You have
871 considerable freedom in what actually takes place. I believe what
872 makes the most sense is for scheduler changes to affect the
873 ``original'' (non-donated) priority.  This change may actually be
874 masked by the donated priority.  Priority changes should only
875 propagate with donations, not ``backwards'' from donees to donors.
876
877 @item
878 @b{What is meant by ``static priority''?}
879
880 Once thread A has donated its priority to thread B, if thread A's
881 priority changes (due to the scheduler) while the donation still
882 exists, you do not have to change thread B's donated priority.
883 However, you are free to do so.
884
885 @item
886 @b{Do I have to make my dispatch table user-configurable?}
887
888 No.  Hard-coding the dispatch table values is fine.
889 @end enumerate