Only call addrspace_destroy() if USERPROG.
[pintos-anon] / src / threads / thread.c
1 #include "thread.h"
2 #include <stddef.h>
3 #include "debug.h"
4 #include "interrupt.h"
5 #include "intr-stubs.h"
6 #include "lib.h"
7 #include "gdt.h"
8 #include "mmu.h"
9 #include "palloc.h"
10 #include "random.h"
11 #include "switch.h"
12
13 #define THREAD_MAGIC 0x1234abcdu
14
15 /* List of processes in THREAD_READY state, that is, processes
16    that are ready to run but not actually running. */
17 static struct list run_queue;
18
19 /* Idle thread. */
20 static struct thread *idle_thread;      /* Thread. */
21 static void idle (void *aux UNUSED);    /* Thread function. */
22
23 /* Stack frame for kernel_thread(). */
24 struct kernel_thread_frame 
25   {
26     void *eip;                  /* Return address. */
27     thread_func *function;      /* Function to call. */
28     void *aux;                  /* Auxiliary data for function. */
29   };
30
31 static void kernel_thread (thread_func *, void *aux);
32
33 static struct thread *next_thread_to_run (void);
34 static struct thread *new_thread (const char *name);
35 static bool is_thread (struct thread *t);
36 static void *alloc_frame (struct thread *t, size_t size);
37 static void destroy_thread (struct thread *t);
38 static void schedule (void);
39 void schedule_tail (struct thread *prev);
40
41 /* Initializes the threading system.  After calling, create some
42    threads with thread_create() or thread_execute(), then start
43    the scheduler with thread_start(). */
44 void
45 thread_init (void) 
46 {
47   ASSERT (intr_get_level () == INTR_OFF);
48
49   /* Initialize run queue. */
50   list_init (&run_queue);
51
52   /* Create idle thread. */
53   idle_thread = thread_create ("idle", idle, NULL);
54   idle_thread->status = THREAD_BLOCKED;
55 }
56
57 /* Starts the thread scheduler.  The caller should have created
58    some threads with thread_create() or thread_execute().  Never
59    returns to the caller. */
60 void
61 thread_start (void) 
62 {
63   struct thread *t = next_thread_to_run ();
64   if (t->status == THREAD_READY)
65     list_remove (&t->rq_elem);
66   t->status = THREAD_RUNNING;
67   switch_threads (NULL, t);
68
69   NOT_REACHED ();
70 }
71
72 /* Creates a new kernel thread named NAME, which executes
73    FUNCTION passing AUX as the argument, and adds it to the ready
74    queue.  If thread_start() has been called, then the new thread
75    may be scheduled before thread_create() returns.  Use a
76    semaphore or some other form of synchronization if you need to
77    ensure ordering. */
78 struct thread *
79 thread_create (const char *name, thread_func *function, void *aux) 
80 {
81   struct thread *t;
82   struct kernel_thread_frame *kf;
83   struct switch_entry_frame *ef;
84   struct switch_threads_frame *sf;
85
86   ASSERT (function != NULL);
87
88   t = new_thread (name);
89
90   /* Stack frame for kernel_thread(). */
91   kf = alloc_frame (t, sizeof *kf);
92   kf->eip = NULL;
93   kf->function = function;
94   kf->aux = aux;
95
96   /* Stack frame for switch_entry(). */
97   ef = alloc_frame (t, sizeof *ef);
98   ef->eip = (void (*) (void)) kernel_thread;
99
100   /* Stack frame for switch_threads(). */
101   sf = alloc_frame (t, sizeof *sf);
102   sf->eip = switch_entry;
103
104   /* Add to run queue. */
105   thread_wake (t);
106
107   return t;
108 }
109
110 #ifdef USERPROG
111 /* Starts a new thread running a user program loaded from
112    FILENAME, and adds it to the ready queue.  If thread_start()
113    has been called, then new thread may be scheduled before
114    thread_execute() returns.*/
115 bool
116 thread_execute (const char *filename) 
117 {
118   struct thread *t;
119   struct intr_frame *if_;
120   struct switch_entry_frame *ef;
121   struct switch_threads_frame *sf;
122   void (*start) (void);
123
124   ASSERT (filename != NULL);
125
126   t = new_thread (filename);
127   if (t == NULL)
128     return false;
129   
130   if (!addrspace_load (t, filename, &start)) 
131     PANIC ("%s: program load failed", filename);
132
133   /* Interrupt frame. */
134   if_ = alloc_frame (t, sizeof *if_);
135   if_->es = SEL_UDSEG;
136   if_->ds = SEL_UDSEG;
137   if_->eip = start;
138   if_->cs = SEL_UCSEG;
139   if_->eflags = FLAG_IF | FLAG_MBS;
140   if_->esp = PHYS_BASE;
141   if_->ss = SEL_UDSEG;
142
143   /* Stack frame for switch_entry(). */
144   ef = alloc_frame (t, sizeof *ef);
145   ef->eip = intr_exit;
146
147   /* Stack frame for switch_threads(). */
148   sf = alloc_frame (t, sizeof *sf);
149   sf->eip = switch_entry;
150
151   /* Add to run queue. */
152   thread_wake (t);
153
154   return true;
155 }
156 #endif
157
158 /* Transitions T from its current state to THREAD_READY, the
159    ready-to-run state.  On entry, T must be ready or blocked.
160    (Use thread_yield() to make the running thread ready.) */
161 void
162 thread_wake (struct thread *t) 
163 {
164   ASSERT (is_thread (t));
165   ASSERT (t->status == THREAD_READY || t->status == THREAD_BLOCKED);
166   if (t->status != THREAD_READY) 
167     {
168       list_push_back (&run_queue, &t->rq_elem);
169       t->status = THREAD_READY;
170     }
171 }
172
173 /* Returns the name of thread T. */
174 const char *
175 thread_name (struct thread *t) 
176 {
177   ASSERT (is_thread (t));
178   return t->name;
179 }
180
181 /* Returns the running thread. */
182 struct thread *
183 thread_current (void) 
184 {
185   uint32_t *esp;
186   struct thread *t;
187
188   /* Copy the CPU's stack pointer into `esp', and then round that
189      down to the start of a page.  Because `struct thread' is
190      always at the beginning of a page and the stack pointer is
191      somewhere in the middle, this locates the curent thread. */
192   asm ("movl %%esp, %0\n" : "=g" (esp));
193   t = pg_round_down (esp);
194
195   /* Make sure T is really a thread.
196      If this assertion fires, then your thread may have
197      overflowed its stack.  Each thread has less than 4 kB of
198      stack, so a few big automatic arrays or moderate recursion
199      can cause stack overflow. */
200   ASSERT (is_thread (t));
201
202   return t;
203 }
204
205 /* Deschedules the current thread and destroys it.  Never
206    returns to the caller. */
207 void
208 thread_exit (void) 
209 {
210   ASSERT (!intr_context ());
211
212   intr_disable ();
213   thread_current ()->status = THREAD_DYING;
214   schedule ();
215   NOT_REACHED ();
216 }
217
218 /* Yields the CPU.  The current thread is not put to sleep and
219    may be scheduled again immediately at the scheduler's whim. */
220 void
221 thread_yield (void) 
222 {
223   struct thread *cur = thread_current ();
224   enum intr_level old_level;
225   
226   ASSERT (!intr_context ());
227
228   old_level = intr_disable ();
229   list_push_back (&run_queue, &cur->rq_elem);
230   cur->status = THREAD_READY;
231   schedule ();
232   intr_set_level (old_level);
233 }
234
235 /* Puts the current thread to sleep.  It will not be scheduled
236    again until awoken by thread_wake(). */
237 void
238 thread_sleep (void) 
239 {
240   ASSERT (!intr_context ());
241   ASSERT (intr_get_level () == INTR_OFF);
242
243   thread_current ()->status = THREAD_BLOCKED;
244   schedule ();
245 }
246 \f
247 /* Idle thread.  Executes when no other thread is ready to run. */
248 static void
249 idle (void *aux UNUSED) 
250 {
251   for (;;) 
252     {
253       /* Wait for an interrupt. */
254       DEBUG (idle, "idle");
255       asm ("hlt");
256
257       /* Let someone else run. */
258       intr_disable ();
259       thread_sleep ();
260       intr_enable ();
261     }
262 }
263
264 /* Function used as the basis for a kernel thread. */
265 static void
266 kernel_thread (thread_func *function, void *aux) 
267 {
268   ASSERT (function != NULL);
269
270   intr_enable ();       /* The scheduler runs with interrupts off. */
271   function (aux);       /* Execute the thread function. */
272   thread_exit ();       /* If function() returns, kill the thread. */
273 }
274 \f
275 /* Returns true if T appears to point to a valid thread. */
276 static bool
277 is_thread (struct thread *t) 
278 {
279   return t != NULL && t->magic == THREAD_MAGIC;
280 }
281
282 /* Creates a new thread named NAME and initializes its fields.
283    Returns the new thread if successful or a null pointer on
284    failure. */
285 static struct thread *
286 new_thread (const char *name) 
287 {
288   struct thread *t;
289
290   ASSERT (name != NULL);
291   
292   t = palloc_get (PAL_ZERO);
293   if (t != NULL)
294     {
295       strlcpy (t->name, name, sizeof t->name);
296       t->stack = (uint8_t *) t + PGSIZE;
297       t->status = THREAD_BLOCKED;
298       t->magic = THREAD_MAGIC;
299     }
300   
301   return t;
302 }
303
304 /* Allocates a SIZE-byte frame at the top of thread T's stack and
305    returns a pointer to the frame's base. */
306 static void *
307 alloc_frame (struct thread *t, size_t size) 
308 {
309   /* Stack data is always allocated in word-size units. */
310   ASSERT (is_thread (t));
311   ASSERT (size % sizeof (uint32_t) == 0);
312
313   t->stack -= size;
314   return t->stack;
315 }
316
317 /* Chooses and returns the next thread to be scheduled.  Should
318    return a thread from the run queue, unless the run queue is
319    empty.  (If the running thread can continue running, then it
320    will be in the run queue.)  If the run queue is empty, return
321    idle_thread. */
322 static struct thread *
323 next_thread_to_run (void) 
324 {
325   if (list_empty (&run_queue))
326     return idle_thread;
327   else
328     return list_entry (list_pop_front (&run_queue), struct thread, rq_elem);
329 }
330
331 /* Destroys T, which must be in the dying state and must not be
332    the running thread. */
333 static void
334 destroy_thread (struct thread *t) 
335 {
336   ASSERT (is_thread (t));
337   ASSERT (t->status == THREAD_DYING);
338   ASSERT (t != thread_current ());
339
340 #ifdef USERPROG
341   addrspace_destroy (t);
342 #endif
343   palloc_free (t);
344 }
345
346 /* Completes a thread switch by activating the new thread's page
347    tables, and, if the previous thread is dying, destroying it.
348
349    At this function's invocation, we just switched from thread
350    PREV, the new thread is already running, and interrupts are
351    still disabled.  This function is normally invoked by
352    thread_schedule() as its final action before returning, but
353    the first time a thread is scheduled it is called by
354    switch_entry() (see switch.S).
355
356    After this function and its caller returns, the thread switch
357    is complete. */
358 void
359 schedule_tail (struct thread *prev) 
360 {
361   struct thread *cur = thread_current ();
362   
363   ASSERT (intr_get_level () == INTR_OFF);
364
365   cur->status = THREAD_RUNNING;
366   if (prev != NULL && prev->status == THREAD_DYING) 
367     destroy_thread (prev);
368
369 #ifdef USERPROG
370   addrspace_activate (cur);
371 #endif
372 }
373
374 /* Schedules a new process.  At entry, interrupts must be off and
375    the running process's state must have been changed from
376    running to some other state.  This function finds another
377    thread to run and switches to it. */
378 static void
379 schedule (void) 
380 {
381   struct thread *cur = thread_current ();
382   struct thread *next = next_thread_to_run ();
383
384   ASSERT (intr_get_level () == INTR_OFF);
385   ASSERT (cur->status != THREAD_RUNNING);
386   ASSERT (is_thread (next));
387
388   if (cur != next)
389     {
390       struct thread *prev = switch_threads (cur, next);
391       schedule_tail (prev); 
392     }
393 }
394 \f
395 /* Offset of `stack' member within `struct thread'.
396    Used by switch.S, which can't figure it out on its own. */
397 uint32_t thread_stack_ofs = offsetof (struct thread, stack);