uCore实验 - Lab5

简介

  • 这里是笔者在完成uCore Lab 5时写下的一些笔记
  • 内容涉及fork/exec/wait/exit机制的具体实现。

练习解答

0) 练习0

除了将lab 1/2/3/4的代码填写至lab5以外,其他地方还有部分代码需要完善一下:

  • alloc_proc函数中,添加对proc_struct::wait_state以及proc_struct::cptr/optr/yptr成员的初始化。

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    static struct proc_struct *
    alloc_proc(void) {
    struct proc_struct *proc = kmalloc(sizeof(struct proc_struct));
    if (proc != NULL) {
    // .....
    // Lab5 code
    proc->wait_state = 0;
    proc->cptr = proc->optr = proc->yptr = NULL;
    }
    return proc;
    }
  • idt_init函数中,设置中断T_SYSCALL的触发特权级为DPL_USER

    1
    2
    3
    4
    5
    6
    void idt_init(void) {
    // ......
    // Lab5 code
    SETGATE(idt[T_SYSCALL], 1, GD_KTEXT, __vectors[T_SYSCALL], DPL_USER);
    // ......
    }
  • trap_dispatch中,设置每100次时间中断后,当前正在执行的进程准备被调度。同时,注释掉原来的"100ticks"输出

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    static void
    trap_dispatch(struct trapframe *tf) {
    char c;
    int ret=0;
    switch (tf->tf_trapno) {
    // ......
    case IRQ_OFFSET + IRQ_TIMER:
    ticks++;
    if(ticks % TICK_NUM == 0){
    // Lab5 Code
    assert(current != NULL);
    current->need_resched = 1;
    //print_ticks();
    }
    break;
    // ......
  • do_fork函数中,添加对当前进程等待状态的检查,以及使用set_links函数来设置进程之间的关系。

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    int
    do_fork(uint32_t clone_flags, uintptr_t stack, struct trapframe *tf) {
    // ..........
    if ((proc = alloc_proc()) == NULL)
    goto fork_out;
    proc->parent = current;
    // Lab5: 确保当前进程的wait状态为空
    assert(current->wait_state == 0);
    if (setup_kstack(proc) != 0)
    goto bad_fork_cleanup_proc;
    if (copy_mm(clone_flags, proc) != 0)
    goto bad_fork_cleanup_kstack;
    copy_thread(proc, stack, tf);
    bool intr_flag;
    local_intr_save(intr_flag);
    {
    proc->pid = get_pid();
    hash_proc(proc);
    // Lab5: 设置进程间的关系
    set_links(proc);
    }
    local_intr_restore(intr_flag);
    wakeup_proc(proc);
    ret = proc->pid;
    // ..........
    }

1) 练习1

加载应用程序并执行

do_execv函数调用load_icode(位于kern/process/proc.c中)来加载并解析一个处于内存中的ELF执行文件格式的应用程序,建立相应的用户内存空间来放置应用程序的代码段、数据段等,且要设置好proc_struct结构中的成员变量trapframe中的内容,确保在执行此进程后,能够从应用程序设定的起始执行地址开始执行。需设置正确的trapframe内容。

  • 相关实现代码如下

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    // codes in `load_icode` function

    //(6) setup trapframe for user environment
    struct trapframe *tf = current->tf;
    memset(tf, 0, sizeof(struct trapframe));
    /* LAB5:EXERCISE1 YOUR CODE
    * should set tf_cs,tf_ds,tf_es,tf_ss,tf_esp,tf_eip,tf_eflags
    * NOTICE: If we set trapframe correctly, then the user level process can return to USER MODE from kernel. So
    * tf_cs should be USER_CS segment (see memlayout.h)
    * tf_ds=tf_es=tf_ss should be USER_DS segment
    * tf_esp should be the top addr of user stack (USTACKTOP)
    * tf_eip should be the entry point of this binary program (elf->e_entry)
    * tf_eflags should be set to enable computer to produce Interrupt
    */
    tf->tf_cs = USER_CS;
    tf->tf_ds = tf->tf_es = tf->tf_ss = USER_DS;
    tf->tf_esp = USTACKTOP;
    tf->tf_eip = elf->e_entry;
    tf->tf_eflags = FL_IF;
    ret = 0;
  • 请描述当创建一个用户态进程并加载了应用程序后,CPU是如何让这个应用程序最终在用户态执行起来的。即这个用户态进程被ucore选择占用CPU执行(RUNNING态)到具体执行应用程序第一条指令的整个经过。

    为便于描述得当,笔者将介绍一个用户态程序从开始执行sys_execve到具体执行新加载应用程序的第一条指令这个过程。

    • 当一个用户态程序执行sys_execve时,该程序将触发0x80中断,并进入中断处理例程。与Lab1类似,中断处理例程的入口代码会保存trapframe作为跳转回用户态的上下文环境。但与lab1代码所不同的是,lab5中的trap函数实现如下:

      1
      2
      3
      4
      5
      6
      7
      8
      9
      10
      11
      12
      13
      14
      15
      16
      17
      18
      19
      20
      21
      22
      void trap(struct trapframe *tf) {
      // dispatch based on what type of trap occurred
      // used for previous projects
      if (current == NULL)
      trap_dispatch(tf);
      else {
      // 因为可能会发生嵌套中断的情况,所以保存上一次的trapframe
      struct trapframe *otf = current->tf;
      // 注意这一步,设置当前process的栈帧为当前中断栈帧
      current->tf = tf;
      bool in_kernel = trap_in_kernel(tf);
      trap_dispatch(tf);
      current->tf = otf;

      if (!in_kernel) {
      if (current->flags & PF_EXITING)
      do_exit(-E_KILLED);
      if (current->need_resched)
      schedule();
      }
      }
      }
    • 由于trap函数的设计,在do_execve中,此时的current->tf保存的就是用户态的上下文。

    • 因此在执行load_icode函数时,程序只会修改current->trapframe。因为当中断处理程序返回时,CPU所加载的上下文就是current->trapframe

2) 练习2

父进程复制自己的内存空间给子进程

创建子进程的函数do_fork在执行中将拷贝当前进程(即父进程)的用户内存地址空间中的合法内容到新进程中(子进程),完成内存资源的复制。具体是通过copy_range函数实现的,请补充copy_range的实现,确保能够正确执行。。

实现代码如下,详细信息以注释的形式写到代码中:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
/* copy_range - copy content of memory (start, end) of one process A to another process B
* @to: the addr of process B's Page Directory
* @from: the addr of process A's Page Directory
* @share: flags to indicate to dup OR share. We just use dup method, so it didn't be used.
*
* CALL GRAPH: copy_mm-->dup_mmap-->copy_range
*/
int
copy_range(pde_t *to, pde_t *from, uintptr_t start, uintptr_t end, bool share) {
assert(start % PGSIZE == 0 && end % PGSIZE == 0);
assert(USER_ACCESS(start, end));
// copy content by page unit.
do {
//call get_pte to find process A's pte according to the addr start
pte_t *ptep = get_pte(from, start, 0), *nptep;
if (ptep == NULL) {
start = ROUNDDOWN(start + PTSIZE, PTSIZE);
continue ;
}
//call get_pte to find process B's pte according to the addr start. If pte is NULL, just alloc a PT
if (*ptep & PTE_P) {
if ((nptep = get_pte(to, start, 1)) == NULL) {
return -E_NO_MEM;
}
uint32_t perm = (*ptep & PTE_USER);
//get page from ptep
struct Page *page = pte2page(*ptep);
// alloc a page for process B
struct Page *npage=alloc_page();
assert(page!=NULL);
assert(npage!=NULL);
int ret=0;
/* LAB5:EXERCISE2 YOUR CODE
* replicate content of page to npage, build the map of phy addr of nage with the linear addr start
*/
// 获取源页面所在的虚拟地址(注意,此时的PDT是内核状态下的页目录表)
void * kva_src = page2kva(page);
// 获取目标页面所在的虚拟地址
void * kva_dst = page2kva(npage);
// 页面数据复制
memcpy(kva_dst, kva_src, PGSIZE);
// 将该页面设置至对应的PTE中
ret = page_insert(to, npage, start, perm);

assert(ret == 0);
}
start += PGSIZE;
} while (start != 0 && start < end);
return 0;
}
  • 简要说明如何设计实现”Copy on Write 机制“,给出概要设计,鼓励给出详细设计。

    请移步扩展练习

3) 练习3

阅读分析源代码,理解进程执行 fork/exec/wait/exit 的实现,以及系统调用的实现

1. do_fork

  • lab5中的do_fork函数与lab4中的实现类似,所不同的是lab5中使用set_links(proc)函数来设置进程间的关系,而不是简单的list_addnr_process++

  • set_links函数会为当前进程间设置合适的关系,其实现如下:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    /*************************************************************
    process relations
    parent: proc->parent (proc is children)
    children: proc->cptr (proc is parent)
    older sibling: proc->optr (proc is younger sibling)
    younger sibling: proc->yptr (proc is older sibling)
    *************************************************************/
    // set_links - set the relation links of process
    static void set_links(struct proc_struct *proc) {
    list_add(&proc_list, &(proc->list_link));
    proc->yptr = NULL;
    if ((proc->optr = proc->parent->cptr) != NULL)
    proc->optr->yptr = proc;
    proc->parent->cptr = proc;
    nr_process ++;
    }
    • 除了lab4熟知的list_addnr_process++,该函数还设置了proc_struct中的optr、yptr以及cptr成员。

    • 其中,cptr指针指向当前进程的子进程中,最晚创建的那个子进程,即childrenyptr指向与当前进程共享同一个父进程,但比当前进程的创建时间更晚的进程,即younger sibling。而optr指针的功能则与yptr相反,指向older sibling

    • 进程间关系如下图所示

      1
      2
      3
      4
      5
      6
      7
      8
      9
      10
      11
                           +----------------+
      | parent process |
      +----------------+
      parent ^ \ ^ parent
      / \ \
      / \ cptr \
      / yptr V \ yptr
      +-------------+ --> +-------------+ --> NULL
      | old process | | New Process |
      NULL <-- +-------------+ <-- +-------------+
      optr optr

2. do_execve

  • do_execve函数做的事请比较简单

    • 检查当前进程所分配的内存区域是否存在异常。
    • 回收当前进程的所有资源,包括已分配的内存空间/页目录表等等。
    • 读取可执行文件,并根据ELFheader分配特定位置的虚拟内存,并加载代码与数据至特定的内存地址,最后分配堆栈并设置trapframe属性。
    • 设置新进程名称。
  • 该函数几乎释放原进程所有的资源,除了PCB。也就是说,do_execve保留了原进程的PID、原进程的属性、原进程与其他进程之间的关系等等。

  • 该函数的具体实现如下

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    int
    do_execve(const char *name, size_t len, unsigned char *binary, size_t size) {
    struct mm_struct *mm = current->mm;
    if (!user_mem_check(mm, (uintptr_t)name, len, 0))
    return -E_INVAL;
    if (len > PROC_NAME_LEN)
    len = PROC_NAME_LEN;
    char local_name[PROC_NAME_LEN + 1];
    memset(local_name, 0, sizeof(local_name));
    memcpy(local_name, name, len);
    // 释放内存
    if (mm != NULL) {
    lcr3(boot_cr3);
    if (mm_count_dec(mm) == 0) {
    exit_mmap(mm);
    // 删除该内存管理所对应的PDT
    put_pgdir(mm);
    mm_destroy(mm);
    }
    current->mm = NULL;
    }
    // 加载可执行文件代码,重设mm_struct,以及重置trapframe
    int ret;
    if ((ret = load_icode(binary, size)) != 0)
    goto execve_exit;
    // 设置进程名称
    set_proc_name(current, local_name);
    return 0;
    execve_exit:
    do_exit(ret);
    panic("already exit: %e.\n", ret);
    }

3. do_wait

  • do_wait程序会使某个进程一直等待,直到(特定)子进程退出后,该进程才会回收该子进程的资源并函数返回。该函数的具体操作如下:

    • 检查当前进程所分配的内存区域是否存在异常。
    • 查找特定/所有子进程中是否存在某个等待父进程回收的子进程(PROC_ZOMBIE)。
      • 如果有,则回收该进程并函数返回。
      • 如果没有,则设置当前进程状态为PROC_SLEEPING并执行schedule调度其他进程运行。当该进程的某个子进程结束运行后,当前进程会被唤醒,并在do_wait函数中回收子进程的PCB内存资源。
  • 该函数的具体实现如下:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    53
    int
    do_wait(int pid, int *code_store) {
    struct mm_struct *mm = current->mm;
    if (code_store != NULL) {
    if (!user_mem_check(mm, (uintptr_t)code_store, sizeof(int), 1)) {
    return -E_INVAL;
    }
    }
    struct proc_struct *proc;
    bool intr_flag, haskid;
    repeat:
    haskid = 0;
    if (pid != 0) {
    proc = find_proc(pid);
    if (proc != NULL && proc->parent == current) {
    haskid = 1;
    if (proc->state == PROC_ZOMBIE)
    goto found;
    }
    }
    else {
    proc = current->cptr;
    for (; proc != NULL; proc = proc->optr) {
    haskid = 1;
    if (proc->state == PROC_ZOMBIE)
    goto found;
    }
    }
    if (haskid) {
    current->state = PROC_SLEEPING;
    current->wait_state = WT_CHILD;
    schedule();
    if (current->flags & PF_EXITING)
    do_exit(-E_KILLED);
    goto repeat;
    }
    return -E_BAD_PROC;

    found:
    if (proc == idleproc || proc == initproc)
    panic("wait idleproc or initproc.\n");
    if (code_store != NULL)
    *code_store = proc->exit_code;
    local_intr_save(intr_flag);
    {
    unhash_proc(proc);
    remove_links(proc);
    }
    local_intr_restore(intr_flag);
    put_kstack(proc);
    kfree(proc);
    return 0;
    }

4. do_exit

  • 该函数与do_execve/do_wait函数中的进程回收代码类似,但又有所不同。其具体操作如下:

    • ·回收所有内存(除了PCB,该结构只能由父进程回收)

    • 设置当前的进程状态为PROC_ZOMBIE

    • 设置当前进程的退出值current->exit_code

    • 如果有父进程,则唤醒父进程,使其准备回收该进程的PCB。

      正常情况下,除了initprocidleproc以外,其他进程一定存在父进程。

    • 如果当前进程存在子进程,则设置所有子进程的父进程为initproc。这样倘若这些子进程进入结束状态,则initproc可以代为回收资源。

    • 执行进程调度。一旦调度到当前进程的父进程,则可以马上回收该终止进程的PCB

  • 该函数的具体实现如下

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    int do_exit(int error_code) {
    if (current == idleproc)
    panic("idleproc exit.\n");
    if (current == initproc)
    panic("initproc exit.\n");
    // 释放所有内存空间
    struct mm_struct *mm = current->mm;
    if (mm != NULL) {
    lcr3(boot_cr3);
    if (mm_count_dec(mm) == 0) {
    exit_mmap(mm);
    put_pgdir(mm);
    mm_destroy(mm);
    }
    current->mm = NULL;
    }
    // 设置当前进程状态
    current->state = PROC_ZOMBIE;
    current->exit_code = error_code;
    // 请求父进程回收剩余资源
    bool intr_flag;
    struct proc_struct *proc;
    local_intr_save(intr_flag);
    {
    proc = current->parent;
    // 唤醒父进程。父进程准备回收该进程的PCB资源。
    if (proc->wait_state == WT_CHILD)
    wakeup_proc(proc);
    // 如果当前进程存在子进程,则设置所有子进程的父进程为init。
    while (current->cptr != NULL) {
    proc = current->cptr;
    current->cptr = proc->optr;

    proc->yptr = NULL;
    if ((proc->optr = initproc->cptr) != NULL)
    initproc->cptr->yptr = proc;
    proc->parent = initproc;
    initproc->cptr = proc;
    if (proc->state == PROC_ZOMBIE) {
    if (initproc->wait_state == WT_CHILD)
    wakeup_proc(initproc);
    }
    }
    }
    local_intr_restore(intr_flag);
    // 该进程的生命周期即将结束,调度其他进程执行。
    schedule();
    panic("do_exit will not return!! %d.\n", current->pid);
    }

5. syscall系统调用

  • syscall是内核程序为用户程序提供内核服务的一种方式。

  • 在用户程序中,若需用到内核服务,则需要执行sys_xxxx函数,例如sys_kill

    1
    2
    3
    int sys_kill(int pid) {
    return syscall(SYS_kill, pid);
    }
  • 实际上,sys_xxxx函数全都是用户态syscall函数的wrapper。那些函数会设置参数并执行syscall函数,而该函数的实现如下:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    static inline int syscall(int num, ...) {
    va_list ap;
    va_start(ap, num);
    uint32_t a[MAX_ARGS];
    int i, ret;
    for (i = 0; i < MAX_ARGS; i ++)
    a[i] = va_arg(ap, uint32_t);
    va_end(ap);

    asm volatile (
    "int %1;"
    : "=a" (ret)
    : "i" (T_SYSCALL),
    "a" (num),
    "d" (a[0]),
    "c" (a[1]),
    "b" (a[2]),
    "D" (a[3]),
    "S" (a[4])
    : "cc", "memory");
    return ret;
    }

    该函数会设置%eax, %edx, %ecx, %ebx, %edi, %esi五个寄存器的值分别为syscall调用号、参数1、参数2、参数3、参数4、参数5,然后执行int中断进入中断处理例程。

  • 在中断处理例程中,程序会根据中断号,执行syscall函数(注意该syscall函数为内核代码,非用户库中的syscall函数)。内核syscall函数会一一取出六个寄存器的值,并根据系统调用号来执行不同的系统调用。而那些系统调用的实质就是其他内核函数的wrapper。以下为syscall函数实现的代码:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    void
    syscall(void) {
    struct trapframe *tf = current->tf;
    uint32_t arg[5];
    int num = tf->tf_regs.reg_eax;
    if (num >= 0 && num < NUM_SYSCALLS) {
    if (syscalls[num] != NULL) {
    arg[0] = tf->tf_regs.reg_edx;
    arg[1] = tf->tf_regs.reg_ecx;
    arg[2] = tf->tf_regs.reg_ebx;
    arg[3] = tf->tf_regs.reg_edi;
    arg[4] = tf->tf_regs.reg_esi;
    tf->tf_regs.reg_eax = syscalls[num](arg);
    return ;
    }
    }
    print_trapframe(tf);
    panic("undefined syscall %d, pid = %d, name = %s.\n",
    num, current->pid, current->name);
    }
  • 等相应的内核函数结束后,程序通过之前保留的trapframe返回用户态。一次系统调用结束。

*. Questions

简要说明你对 fork/exec/wait/exit函数的分析。并回答如下问题:

  • 请分析fork/exec/wait/exit在实现中是如何影响进程的执行状态的?

    • fork会修改其子进程的状态为PROC_RUNNABLE,而当前进程状态不变。
    • exec不修改当前进程的状态,但会替换内存空间里所有的数据与代码。
    • wait会先检测是否存在子进程。如果存在进入PROC_ZONBIE的子进程,则回收该进程并函数返回。但若存在尚处于PROC_RUNNABLE的子进程,则当前进程会进入PROC_SLEEPING状态,并等待子进程唤醒。
    • exit会将当前进程状态设置为PROC_ZONBIE,并唤醒父进程,使其处于PROC_RUNNABLE的状态,之后主动让出CPU。
  • 请给出ucore中一个用户态进程的执行状态生命周期图(包括执行状态,执行状态之间的变换关系,以及产生变换的事件或函数调用)。

        stateDiagram-v2
      [*]-->UNINIT : alloc_proc
      UNINIT-->RUNNABLE : proc_init/wakeup_proc
      RUNNING-->SLEEPING : try_free_pages/do_wait/do_sleep
      RUNNING-->ZONBIE : do_exit
      RUNNABLE-->RUNNING : 调度器调度
      RUNNING-->RUNNABLE : 时间片耗尽
      SLEEPING-->RUNNABLE : wakeup_proc
      ZONBIE-->[*] : 资源回收

4) 扩展练习

实现 Copy on Write (COW)机制

同时,由于COW实现比较复杂,容易引入bug,请参考 Dirty COW (CVE-2016-5195) 看看能否在ucore的COW实现中模拟这个错误和解决方案。需要有解释。

这是一个big challenge.

1. 思路

当一个用户父进程创建自己的子进程时,父进程会把其申请的用户空间设置为只读,子进程可共享父进程占用的用户内存空间中的页面(这就是一个共享的资源)。当其中任何一个进程修改此用户内存空间中的某页面时,ucore会通过page fault异常获知该操作,并完成拷贝内存页面,使得两个进程都有各自的内存页面。这样一个进程所做的修改不会被另外一个进程可见了。(uCore实验手册原句)

2. 具体实现

  • 当进行内存访问时,CPU会根据PTE上的读写位PTE_PPTE_W来确定当前内存操作是否允许,如果不允许,则缺页中断。我们可以在copy_range函数中,将父进程中所有PTE中的PTE_W置为0,这样便可以将父进程中所有空间都设置为只读。然后使子进程的PTE全部指向父进程中PTE存放的物理地址,这样便可以达到内存共享的目的。

    为什么要设置父进程所有空间为只读呢,因为在之后的内存操作中,如果对这些空间进行写操作的话,程序就会触发缺页中断,那么CPU就可以在缺页中断程序中复制该内存,也就是写时复制。

    为什么在copy_range函数中实现内存共享呢?因为我们可以在该函数中对其传入的share参数进行处理。

    最终实现如下:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    int
    copy_range(pde_t *to, pde_t *from, uintptr_t start, uintptr_t end, bool share) {
    assert(start % PGSIZE == 0 && end % PGSIZE == 0);
    assert(USER_ACCESS(start, end));
    // copy content by page unit.
    do {
    //call get_pte to find process A's pte according to the addr start
    pte_t *ptep = get_pte(from, start, 0), *nptep;
    if (ptep == NULL) {
    start = ROUNDDOWN(start + PTSIZE, PTSIZE);
    continue ;
    }
    //call get_pte to find process B's pte according to the addr start. If pte is NULL, just alloc a PT
    if (*ptep & PTE_P) {
    if ((nptep = get_pte(to, start, 1)) == NULL)
    return -E_NO_MEM;
    uint32_t perm = (*ptep & PTE_USER);
    //get page from ptep
    struct Page *page = pte2page(*ptep);
    int ret = 0;
    // 如果启用写时复制
    if(share)
    {
    cprintf("Sharing the page 0x%x\n", page2kva(page));
    // 物理页面共享,并设置两个PTE上的标志位为只读
    page_insert(from, page, start, perm & ~PTE_W);
    ret = page_insert(to, page, start, perm & ~PTE_W);
    }
    // 完整拷贝内存
    else
    {
    // alloc a page for process B
    // 目标页面地址
    struct Page *npage = alloc_page();
    assert(page!=NULL);
    assert(npage!=NULL);
    cprintf("alloc a new page 0x%x\n", page2kva(npage));
    void * kva_src = page2kva(page);
    void * kva_dst = page2kva(npage);
    memcpy(kva_dst, kva_src, PGSIZE);
    // 将目标页面地址设置到PTE中
    ret = page_insert(to, npage, start, perm);
    }
    assert(ret == 0);
    }
    start += PGSIZE;
    } while (start != 0 && start < end);
    return 0;
    }
  • 当某个进程想写入一个共享内存时,由于PTE上的PTE_W为0,所以会触发缺页中断处理程序。此时进程需要在缺页中断处理程序中复制该页内存,并设置该页内存所对应的PTE_W为1。

    需要注意的是,在执行缺页中断处理程序中的内存复制操作前,需要先检查该物理页的引用次数。如果该引用次数已经为1了,则表明此时的物理页只有当前进程所使用,故可以直接设置该页内存所对应的PTE_W为1即可,不需要进行内存复制。

    最终实现如下:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    53
    54
    55
    56
    57
    58
    59
    60
    61
    62
    63
    64
    65
    int
    do_pgfault(struct mm_struct *mm, uint32_t error_code, uintptr_t addr) {
    // ........
    // 查找当前虚拟地址所对应的页表项
    if ((ptep = get_pte(mm->pgdir, addr, 1)) == NULL) {
    cprintf("get_pte in do_pgfault failed\n");
    goto failed;
    }
    // 如果这个页表项所对应的物理页不存在,则
    if (*ptep == 0) {
    // 分配一块物理页,并设置页表项
    if (pgdir_alloc_page(mm->pgdir, addr, perm) == NULL) {
    cprintf("pgdir_alloc_page in do_pgfault failed\n");
    goto failed;
    }
    }
    else {
    struct Page *page=NULL;
    // 如果当前页错误的原因是写入了只读页面
    if (*ptep & PTE_P) {
    // 写时复制:复制一块内存给当前进程
    cprintf("\n\nCOW: ptep 0x%x, pte 0x%x\n",ptep, *ptep);
    // 原先所使用的只读物理页
    page = pte2page(*ptep);
    // 如果该物理页面被多个进程引用
    if(page_ref(page) > 1)
    {
    // 释放当前PTE的引用并分配一个新物理页
    struct Page* newPage = pgdir_alloc_page(mm->pgdir, addr, perm);
    void * kva_src = page2kva(page);
    void * kva_dst = page2kva(newPage);
    // 拷贝数据
    memcpy(kva_dst, kva_src, PGSIZE);
    }
    // 如果该物理页面只被当前进程所引用,即page_ref等1
    else
    // 则可以直接执行page_insert,保留当前物理页并重设其PTE权限。
    page_insert(mm->pgdir, page, addr, perm);
    }
    else
    {
    // 如果swap已经初始化完成
    if(swap_init_ok) {
    // 将目标数据加载到某块新的物理页中。
    // 该物理页可能是尚未分配的物理页,也可能是从别的已分配物理页中取的
    if ((ret = swap_in(mm, addr, &page)) != 0) {
    cprintf("swap_in in do_pgfault failed\n");
    goto failed;
    }
    // 将该物理页与对应的虚拟地址关联,同时设置页表。
    page_insert(mm->pgdir, page, addr, perm);
    }
    else {
    cprintf("no swap_init_ok but ptep is %x, failed\n",*ptep);
    goto failed;
    }
    }
    // 当前缺失的页已经加载回内存中,所以设置当前页为可swap。
    swap_map_swappable(mm, addr, page, 1);
    page->pra_vaddr = addr;
    }
    ret = 0;
    failed:
    return ret;
    }
  • 这个COW的实现效果相当不错,很好的通过了make grade测试。

3. 脏牛本地提权漏洞分析

该漏洞笔者只会简单概括一下,会忽略大部分细节。更多细节请移步解读CVE-2016-5195(Dirty COW)Linux本地提权漏洞

  • 先给出漏洞函数的代码

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    long __get_user_pages(struct task_struct *tsk, struct mm_struct *mm,
    unsigned long start, unsigned long nr_pages,
    unsigned int gup_flags, struct page **pages,
    struct vm_area_struct **vmas, int *nonblocking)
    {
    // ....
    do {
    retry:
    // 注意这里的进程调度
    cond_resched();
    // ......
    /* 查找虚拟地址的page */
    page = follow_page_mask(vma, start, foll_flags, &page_mask);
    if (!page) {
    /* 如果page找不到,则进行处理 */
    ret = faultin_page(tsk, vma, start, &foll_flags, nonblocking);
    switch (ret) {
    case 0:
    goto retry;
    // ......
    }
    }
    if (page)
    // 加入page数组
    } while (nr_pages);
    // ...
    }
  • 执行__get_user_pages函数时,函数参数会携带一个FOLL_WRITE标记,用以指明当前操作是写入某个物理页。

  • follow_page_mask中,程序会找出特定的物理页。但大部分情况下第一次执行该函数时无法真正将该物理页的地址返回,因为可能存在缺页或者权限不够的情况(例如写入了一个只读页)。

  • 此时,变量page的值为NULL,之后会执行faultin_page函数对follow_page_mask的失败进行处理。包括但不限于分配新的页、修改页权限、页数据复制等等情况(上述说明的三种情况不一定会同时发生)。然后跳转至retry重新执行follow_page_mask

  • 经过几轮的循环后,当faultin_page函数再一次执行时,该函数会执行内存复制操作,以完成写时复制操作。同时 FOLL_WRITE标记将会被抹去 ,之后跳转回retry

    因为COW已经执行完成,对于新的物理页无论是读还是写都没有问题,所以在下一次执行follow_page_mask函数时一定会返回该物理页,所以该标记已经失去了作用,可以被抹去。

  • 但此时需要注意的是,retry下的第一条语句是cond_resched函数,它将会执行线程调度,执行其他线程。但倘若调度到的线程将之前新创建的物理页删除,则一旦重新调度回当前线程后,执行follow_page_mask返回的是之前的只读页

    为什么第一次执行follow_page_mask时返回NULL,而这一次执行返回的是只读页呢?

    因为第一次执行时有FOLL_WRITE标记,权限不够,所以会返回NULL。而这次的执行由于不存在FOLL_WRITE标记,所以该操作会被认定为读取而不是写入,因此直接返回之前的只读物理页的地址。

  • 之后该只读页被添加到page数组,并在接下来的操作中被成功修改。这就是脏牛漏洞的大致原理。

  • 版权声明: 本博客所有文章除特别声明外,著作权归作者所有。转载请注明出处!
  • Copyrights © 2020-2024 Kiprey
  • 访问人数: | 浏览次数:

请我喝杯咖啡吧~