Fix inconstiency in recent_cpu update description.
[pintos-anon] / src / threads / palloc.c
1 #include "threads/palloc.h"
2 #include <bitmap.h>
3 #include <debug.h>
4 #include <inttypes.h>
5 #include <round.h>
6 #include <stddef.h>
7 #include <stdint.h>
8 #include <stdio.h>
9 #include <string.h>
10 #include "threads/init.h"
11 #include "threads/loader.h"
12 #include "threads/synch.h"
13 #include "threads/vaddr.h"
14
15 /* Page allocator.  Hands out memory in page-size (or
16    page-multiple) chunks.  See malloc.h for an allocator that
17    hands out smaller chunks.
18
19    System memory is divided into two "pools" called the kernel
20    and user pools.  The user pool is for user (virtual) memory
21    pages, the kernel pool for everything else.  The idea here is
22    that the kernel needs to have memory for its own operations
23    even if user processes are swapping like mad.
24
25    By default, half of system RAM is given to the kernel pool and
26    half to the user pool.  That should be huge overkill for the
27    kernel pool, but that's just fine for demonstration purposes. */
28
29 /* A memory pool. */
30 struct pool
31   {
32     struct lock lock;                   /* Mutual exclusion. */
33     struct bitmap *used_map;            /* Bitmap of free pages. */
34     uint8_t *base;                      /* Base of pool. */
35   };
36
37 /* Two pools: one for kernel data, one for user pages. */
38 struct pool kernel_pool, user_pool;
39
40 /* Maximum number of pages to put in user pool. */
41 size_t user_page_limit = SIZE_MAX;
42
43 static void init_pool (struct pool *, void *base, size_t page_cnt,
44                        const char *name);
45 static bool page_from_pool (const struct pool *, void *page);
46
47 /* Initializes the page allocator. */
48 void
49 palloc_init (void) 
50 {
51   /* End of the kernel as recorded by the linker.
52      See kernel.lds.S. */
53   extern char _end;
54
55   /* Free memory. */
56   uint8_t *free_start = pg_round_up (&_end);
57   uint8_t *free_end = ptov (ram_pages * PGSIZE);
58   size_t free_pages = (free_end - free_start) / PGSIZE;
59   size_t user_pages = free_pages / 2;
60   size_t kernel_pages;
61   if (user_pages > user_page_limit)
62     user_pages = user_page_limit;
63   kernel_pages = free_pages - user_pages;
64
65   /* Give half of memory to kernel, half to user. */
66   init_pool (&kernel_pool, free_start, kernel_pages, "kernel pool");
67   init_pool (&user_pool, free_start + kernel_pages * PGSIZE,
68              user_pages, "user pool");
69 }
70
71 /* Obtains and returns a group of PAGE_CNT contiguous free pages.
72    If PAL_USER is set, the pages are obtained from the user pool,
73    otherwise from the kernel pool.  If PAL_ZERO is set in FLAGS,
74    then the pages are filled with zeros.  If too few pages are
75    available, returns a null pointer, unless PAL_ASSERT is set in
76    FLAGS, in which case the kernel panics. */
77 void *
78 palloc_get_multiple (enum palloc_flags flags, size_t page_cnt)
79 {
80   struct pool *pool = flags & PAL_USER ? &user_pool : &kernel_pool;
81   void *pages;
82   size_t page_idx;
83
84   if (page_cnt == 0)
85     return NULL;
86
87   lock_acquire (&pool->lock);
88   page_idx = bitmap_scan_and_flip (pool->used_map, 0, page_cnt, false);
89   lock_release (&pool->lock);
90
91   if (page_idx != BITMAP_ERROR)
92     pages = pool->base + PGSIZE * page_idx;
93   else
94     pages = NULL;
95
96   if (pages != NULL) 
97     {
98       if (flags & PAL_ZERO)
99         memset (pages, 0, PGSIZE * page_cnt);
100     }
101   else 
102     {
103       if (flags & PAL_ASSERT)
104         PANIC ("palloc_get: out of pages");
105     }
106
107   return pages;
108 }
109
110 /* Obtains a single free page and returns its kernel virtual
111    address.
112    If PAL_USER is set, the page is obtained from the user pool,
113    otherwise from the kernel pool.  If PAL_ZERO is set in FLAGS,
114    then the page is filled with zeros.  If no pages are
115    available, returns a null pointer, unless PAL_ASSERT is set in
116    FLAGS, in which case the kernel panics. */
117 void *
118 palloc_get_page (enum palloc_flags flags) 
119 {
120   return palloc_get_multiple (flags, 1);
121 }
122
123 /* Frees the PAGE_CNT pages starting at PAGES. */
124 void
125 palloc_free_multiple (void *pages, size_t page_cnt) 
126 {
127   struct pool *pool;
128   size_t page_idx;
129
130   ASSERT (pg_ofs (pages) == 0);
131   if (pages == NULL || page_cnt == 0)
132     return;
133
134   if (page_from_pool (&kernel_pool, pages))
135     pool = &kernel_pool;
136   else if (page_from_pool (&user_pool, pages))
137     pool = &user_pool;
138   else
139     NOT_REACHED ();
140
141   page_idx = pg_no (pages) - pg_no (pool->base);
142
143 #ifndef NDEBUG
144   memset (pages, 0xcc, PGSIZE * page_cnt);
145 #endif
146
147   ASSERT (bitmap_all (pool->used_map, page_idx, page_cnt));
148   bitmap_set_multiple (pool->used_map, page_idx, page_cnt, false);
149 }
150
151 /* Frees the page at PAGE. */
152 void
153 palloc_free_page (void *page) 
154 {
155   palloc_free_multiple (page, 1);
156 }
157
158 /* Initializes pool P as starting at START and ending at END,
159    naming it NAME for debugging purposes. */
160 static void
161 init_pool (struct pool *p, void *base, size_t page_cnt, const char *name) 
162 {
163   /* We'll put the pool's used_map at its base.
164      Calculate the space needed for the bitmap
165      and subtract it from the pool's size. */
166   size_t bm_pages = DIV_ROUND_UP (bitmap_buf_size (page_cnt), PGSIZE);
167   if (bm_pages > page_cnt)
168     PANIC ("Not enough memory in %s for bitmap.", name);
169   page_cnt -= bm_pages;
170
171   printf ("%zu pages available in %s.\n", page_cnt, name);
172
173   /* Initialize the pool. */
174   lock_init (&p->lock);
175   p->used_map = bitmap_create_in_buf (page_cnt, base, bm_pages * PGSIZE);
176   p->base = base + bm_pages * PGSIZE;
177 }
178
179 /* Returns true if PAGE was allocated from POOL,
180    false otherwise. */
181 static bool
182 page_from_pool (const struct pool *pool, void *page) 
183 {
184   size_t page_no = pg_no (page);
185   size_t start_page = pg_no (pool->base);
186   size_t end_page = start_page + bitmap_size (pool->used_map);
187
188   return page_no >= start_page && page_no < end_page;
189 }