Comment idle thread more thoroughly.
[pintos-anon] / src / threads / thread.c
1 #include "threads/thread.h"
2 #include <debug.h>
3 #include <stddef.h>
4 #include <random.h>
5 #include <stdio.h>
6 #include <string.h>
7 #include "threads/flags.h"
8 #include "threads/interrupt.h"
9 #include "threads/intr-stubs.h"
10 #include "threads/mmu.h"
11 #include "threads/palloc.h"
12 #include "threads/switch.h"
13 #include "threads/synch.h"
14 #ifdef USERPROG
15 #include "userprog/process.h"
16 #endif
17
18 /* Random value for struct thread's `magic' member.
19    Used to detect stack overflow.  See the big comment at the top
20    of thread.h for details. */
21 #define THREAD_MAGIC 0xcd6abf4b
22
23 /* List of processes in THREAD_READY state, that is, processes
24    that are ready to run but not actually running. */
25 static struct list ready_list;
26
27 /* Idle thread. */
28 static struct thread *idle_thread;
29
30 /* Initial thread, the thread running init.c:main(). */
31 static struct thread *initial_thread;
32
33 /* Lock used by allocate_tid(). */
34 static struct lock tid_lock;
35
36 /* Stack frame for kernel_thread(). */
37 struct kernel_thread_frame 
38   {
39     void *eip;                  /* Return address. */
40     thread_func *function;      /* Function to call. */
41     void *aux;                  /* Auxiliary data for function. */
42   };
43
44 /* Statistics. */
45 static long long idle_ticks;    /* # of timer ticks spent idle. */
46 static long long kernel_ticks;  /* # of timer ticks in kernel threads. */
47 static long long user_ticks;    /* # of timer ticks in user programs. */
48
49 /* Scheduling. */
50 #define TIME_SLICE 4            /* # of timer ticks to give each thread. */
51 static unsigned thread_ticks;   /* # of timer ticks since last yield. */
52
53 static void kernel_thread (thread_func *, void *aux);
54
55 static void idle (void *aux UNUSED);
56 static struct thread *running_thread (void);
57 static struct thread *next_thread_to_run (void);
58 static void init_thread (struct thread *, const char *name, int priority);
59 static bool is_thread (struct thread *) UNUSED;
60 static void *alloc_frame (struct thread *, size_t size);
61 static void schedule (void);
62 void schedule_tail (struct thread *prev);
63 static tid_t allocate_tid (void);
64
65 /* Initializes the threading system by transforming the code
66    that's currently running into a thread.  This can't work in
67    general and it is possible in this case only because loader.S
68    was careful to put the bottom of the stack at a page boundary.
69
70    Also initializes the run queue and the tid lock.
71
72    After calling this function, be sure to initialize the page
73    allocator before trying to create any threads with
74    thread_create(). */
75 void
76 thread_init (void) 
77 {
78   ASSERT (intr_get_level () == INTR_OFF);
79
80   lock_init (&tid_lock);
81   list_init (&ready_list);
82
83   /* Set up a thread structure for the running thread. */
84   initial_thread = running_thread ();
85   init_thread (initial_thread, "main", PRI_DEFAULT);
86   initial_thread->status = THREAD_RUNNING;
87   initial_thread->tid = allocate_tid ();
88 }
89
90 /* Starts preemptive thread scheduling by enabling interrupts.
91    Also creates the idle thread. */
92 void
93 thread_start (void) 
94 {
95   thread_create ("idle", PRI_MAX, idle, NULL);
96   intr_enable ();
97 }
98
99 /* Called by the timer interrupt handler at each timer tick.
100    Thus, this function runs in an external interrupt context. */
101 void
102 thread_tick (void) 
103 {
104   struct thread *t = thread_current ();
105
106   /* Update statistics. */
107   if (t == idle_thread)
108     idle_ticks++;
109 #ifdef USERPROG
110   else if (t->pagedir != NULL)
111     user_ticks++;
112 #endif
113   else
114     kernel_ticks++;
115
116   /* Enforce preemption. */
117   if (++thread_ticks >= TIME_SLICE)
118     intr_yield_on_return ();
119 }
120
121 /* Prints thread statistics. */
122 void
123 thread_print_stats (void) 
124 {
125   printf ("Thread: %lld idle ticks, %lld kernel ticks, %lld user ticks\n",
126           idle_ticks, kernel_ticks, user_ticks);
127 }
128
129 /* Creates a new kernel thread named NAME with the given initial
130    PRIORITY, which executes FUNCTION passing AUX as the argument,
131    and adds it to the ready queue.  Returns the thread identifier
132    for the new thread, or TID_ERROR if creation fails.
133
134    If thread_start() has been called, then the new thread may be
135    scheduled before thread_create() returns.  It could even exit
136    before thread_create() returns.  Contrariwise, the original
137    thread may run for any amount of time before the new thread is
138    scheduled.  Use a semaphore or some other form of
139    synchronization if you need to ensure ordering.
140
141    The code provided sets the new thread's `priority' member to
142    PRIORITY, but no actual priority scheduling is implemented.
143    Priority scheduling is the goal of Problem 1-3. */
144 tid_t
145 thread_create (const char *name, int priority,
146                thread_func *function, void *aux) 
147 {
148   struct thread *t;
149   struct kernel_thread_frame *kf;
150   struct switch_entry_frame *ef;
151   struct switch_threads_frame *sf;
152   tid_t tid;
153
154   ASSERT (function != NULL);
155
156   /* Allocate thread. */
157   t = palloc_get_page (PAL_ZERO);
158   if (t == NULL)
159     return TID_ERROR;
160
161   /* Initialize thread. */
162   init_thread (t, name, priority);
163   tid = t->tid = allocate_tid ();
164
165   /* Stack frame for kernel_thread(). */
166   kf = alloc_frame (t, sizeof *kf);
167   kf->eip = NULL;
168   kf->function = function;
169   kf->aux = aux;
170
171   /* Stack frame for switch_entry(). */
172   ef = alloc_frame (t, sizeof *ef);
173   ef->eip = (void (*) (void)) kernel_thread;
174
175   /* Stack frame for switch_threads(). */
176   sf = alloc_frame (t, sizeof *sf);
177   sf->eip = switch_entry;
178
179   /* Add to run queue. */
180   thread_unblock (t);
181
182   return tid;
183 }
184
185 /* Puts the current thread to sleep.  It will not be scheduled
186    again until awoken by thread_unblock().
187
188    This function must be called with interrupts turned off.  It
189    is usually a better idea to use one of the synchronization
190    primitives in synch.h. */
191 void
192 thread_block (void) 
193 {
194   ASSERT (!intr_context ());
195   ASSERT (intr_get_level () == INTR_OFF);
196
197   thread_current ()->status = THREAD_BLOCKED;
198   schedule ();
199 }
200
201 /* Transitions a blocked thread T to the ready-to-run state.
202    This is an error if T is not blocked.  (Use thread_yield() to
203    make the running thread ready.) */
204 void
205 thread_unblock (struct thread *t) 
206 {
207   enum intr_level old_level;
208
209   ASSERT (is_thread (t));
210
211   old_level = intr_disable ();
212   ASSERT (t->status == THREAD_BLOCKED);
213   list_push_back (&ready_list, &t->elem);
214   t->status = THREAD_READY;
215   intr_set_level (old_level);
216 }
217
218 /* Returns the name of the running thread. */
219 const char *
220 thread_name (void) 
221 {
222   return thread_current ()->name;
223 }
224
225 /* Returns the running thread.
226    This is running_thread() plus a couple of sanity checks.
227    See the big comment at the top of thread.h for details. */
228 struct thread *
229 thread_current (void) 
230 {
231   struct thread *t = running_thread ();
232   
233   /* Make sure T is really a thread.
234      If either of these assertions fire, then your thread may
235      have overflowed its stack.  Each thread has less than 4 kB
236      of stack, so a few big automatic arrays or moderate
237      recursion can cause stack overflow. */
238   ASSERT (is_thread (t));
239   ASSERT (t->status == THREAD_RUNNING);
240
241   return t;
242 }
243
244 /* Returns the running thread's tid. */
245 tid_t
246 thread_tid (void) 
247 {
248   return thread_current ()->tid;
249 }
250
251 /* Deschedules the current thread and destroys it.  Never
252    returns to the caller. */
253 void
254 thread_exit (void) 
255 {
256   ASSERT (!intr_context ());
257
258 #ifdef USERPROG
259   process_exit ();
260 #endif
261
262   /* Just set our status to dying and schedule another process.
263      We will be destroyed during the call to schedule_tail(). */
264   intr_disable ();
265   thread_current ()->status = THREAD_DYING;
266   schedule ();
267   NOT_REACHED ();
268 }
269
270 /* Yields the CPU.  The current thread is not put to sleep and
271    may be scheduled again immediately at the scheduler's whim. */
272 void
273 thread_yield (void) 
274 {
275   struct thread *cur = thread_current ();
276   enum intr_level old_level;
277   
278   ASSERT (!intr_context ());
279
280   old_level = intr_disable ();
281   list_push_back (&ready_list, &cur->elem);
282   cur->status = THREAD_READY;
283   schedule ();
284   intr_set_level (old_level);
285 }
286
287 /* Sets the current thread's priority to NEW_PRIORITY. */
288 void
289 thread_set_priority (int new_priority) 
290 {
291   thread_current ()->priority = new_priority;
292 }
293
294 /* Returns the current thread's priority. */
295 int
296 thread_get_priority (void) 
297 {
298   return thread_current ()->priority;
299 }
300
301 /* Sets the current thread's nice value to NICE. */
302 void
303 thread_set_nice (int nice UNUSED) 
304 {
305   /* Not yet implemented. */
306 }
307
308 /* Returns the current thread's nice value. */
309 int
310 thread_get_nice (void) 
311 {
312   /* Not yet implemented. */
313   return 0;
314 }
315
316 /* Returns 100 times the system load average. */
317 int
318 thread_get_load_avg (void) 
319 {
320   /* Not yet implemented. */
321   return 0;
322 }
323
324 /* Returns 100 times the current thread's recent_cpu value. */
325 int
326 thread_get_recent_cpu (void) 
327 {
328   /* Not yet implemented. */
329   return 0;
330 }
331 \f
332 /* Idle thread.  Executes when no other thread is ready to run.
333
334    The idle thread is initially put on the ready list by
335    thread_start().  It will be scheduled once initially, at which
336    point it initializes idle_thread and immediately blocks.
337    After that, the idle thread never appears in the ready list.
338    It is returned by next_thread_to_run() as a special case when
339    the ready list is empty. */
340 static void
341 idle (void *aux UNUSED) 
342 {
343   /* Initialize idle_thread.
344
345      Until we run for the first time, idle_thread remains a null
346      pointer.  That's okay because we know that, at that point,
347      the ready list has at least one element (the idle thread),
348      so next_thread_to_run() will not attempt to return the idle
349      thread. */
350   idle_thread = thread_current ();
351
352   for (;;) 
353     {
354       /* Let someone else run. */
355       intr_disable ();
356       thread_block ();
357
358       /* Re-enable interrupts and wait for the next one.
359
360          The `sti' instruction disables interrupts until the
361          completion of the next instruction, so these two
362          instructions are executed atomically.  This atomicity is
363          important; otherwise, an interrupt could be handled
364          between re-enabling interrupts and waiting for the next
365          one to occur, wasting as much as one clock tick worth of
366          time.
367
368          See [IA32-v2a] "HLT", [IA32-v2b] "STI", and [IA32-v3] 7.7. */
369       asm ("sti; hlt");
370     }
371 }
372
373 /* Function used as the basis for a kernel thread. */
374 static void
375 kernel_thread (thread_func *function, void *aux) 
376 {
377   ASSERT (function != NULL);
378
379   intr_enable ();       /* The scheduler runs with interrupts off. */
380   function (aux);       /* Execute the thread function. */
381   thread_exit ();       /* If function() returns, kill the thread. */
382 }
383 \f
384 /* Returns the running thread. */
385 struct thread *
386 running_thread (void) 
387 {
388   uint32_t *esp;
389
390   /* Copy the CPU's stack pointer into `esp', and then round that
391      down to the start of a page.  Because `struct thread' is
392      always at the beginning of a page and the stack pointer is
393      somewhere in the middle, this locates the curent thread. */
394   asm ("mov %%esp, %0" : "=g" (esp));
395   return pg_round_down (esp);
396 }
397
398 /* Returns true if T appears to point to a valid thread. */
399 static bool
400 is_thread (struct thread *t)
401 {
402   return t != NULL && t->magic == THREAD_MAGIC;
403 }
404
405 /* Does basic initialization of T as a blocked thread named
406    NAME. */
407 static void
408 init_thread (struct thread *t, const char *name, int priority)
409 {
410   ASSERT (t != NULL);
411   ASSERT (PRI_MIN <= priority && priority <= PRI_MAX);
412   ASSERT (name != NULL);
413
414   memset (t, 0, sizeof *t);
415   t->status = THREAD_BLOCKED;
416   strlcpy (t->name, name, sizeof t->name);
417   t->stack = (uint8_t *) t + PGSIZE;
418   t->priority = priority;
419   t->magic = THREAD_MAGIC;
420 }
421
422 /* Allocates a SIZE-byte frame at the top of thread T's stack and
423    returns a pointer to the frame's base. */
424 static void *
425 alloc_frame (struct thread *t, size_t size) 
426 {
427   /* Stack data is always allocated in word-size units. */
428   ASSERT (is_thread (t));
429   ASSERT (size % sizeof (uint32_t) == 0);
430
431   t->stack -= size;
432   return t->stack;
433 }
434
435 /* Chooses and returns the next thread to be scheduled.  Should
436    return a thread from the run queue, unless the run queue is
437    empty.  (If the running thread can continue running, then it
438    will be in the run queue.)  If the run queue is empty, return
439    idle_thread. */
440 static struct thread *
441 next_thread_to_run (void) 
442 {
443   if (list_empty (&ready_list))
444     return idle_thread;
445   else
446     return list_entry (list_pop_front (&ready_list), struct thread, elem);
447 }
448
449 /* Completes a thread switch by activating the new thread's page
450    tables, and, if the previous thread is dying, destroying it.
451
452    At this function's invocation, we just switched from thread
453    PREV, the new thread is already running, and interrupts are
454    still disabled.  This function is normally invoked by
455    thread_schedule() as its final action before returning, but
456    the first time a thread is scheduled it is called by
457    switch_entry() (see switch.S).
458
459    It's not safe to call printf() until the thread switch is
460    complete.  In practice that means that printf()s should be
461    added at the end of the function.
462
463    After this function and its caller returns, the thread switch
464    is complete. */
465 void
466 schedule_tail (struct thread *prev) 
467 {
468   struct thread *cur = running_thread ();
469   
470   ASSERT (intr_get_level () == INTR_OFF);
471
472   /* Mark us as running. */
473   cur->status = THREAD_RUNNING;
474
475   /* Start new time slice. */
476   thread_ticks = 0;
477
478 #ifdef USERPROG
479   /* Activate the new address space. */
480   process_activate ();
481 #endif
482
483   /* If the thread we switched from is dying, destroy its struct
484      thread.  This must happen late so that thread_exit() doesn't
485      pull out the rug under itself. */
486   if (prev != NULL && prev->status == THREAD_DYING) 
487     {
488       ASSERT (prev != cur);
489       if (prev != initial_thread)
490         palloc_free_page (prev);
491     }
492 }
493
494 /* Schedules a new process.  At entry, interrupts must be off and
495    the running process's state must have been changed from
496    running to some other state.  This function finds another
497    thread to run and switches to it.
498
499    It's not safe to call printf() until schedule_tail() has
500    completed. */
501 static void
502 schedule (void) 
503 {
504   struct thread *cur = running_thread ();
505   struct thread *next = next_thread_to_run ();
506   struct thread *prev = NULL;
507
508   ASSERT (intr_get_level () == INTR_OFF);
509   ASSERT (cur->status != THREAD_RUNNING);
510   ASSERT (is_thread (next));
511
512   if (cur != next)
513     prev = switch_threads (cur, next);
514   schedule_tail (prev); 
515 }
516
517 /* Returns a tid to use for a new thread. */
518 static tid_t
519 allocate_tid (void) 
520 {
521   static tid_t next_tid = 1;
522   tid_t tid;
523
524   lock_acquire (&tid_lock);
525   tid = next_tid++;
526   lock_release (&tid_lock);
527
528   return tid;
529 }
530 \f
531 /* Offset of `stack' member within `struct thread'.
532    Used by switch.S, which can't figure it out on its own. */
533 uint32_t thread_stack_ofs = offsetof (struct thread, stack);