Linux时间子系统之(十七):ARM generic timer驱动代码分析
作者:linuxer 发布于:2014-12-2 10:47 分类:时间子系统
一、前言
关注ARM平台上timer driver(clocksource chip driver和clockevent chip driver)的驱动工程师应该会注意到timer硬件的演化过程。在单核时代,各个SOC vendor厂商购买ARM core的IP,然后自己设计SOC上的peripherals,这里面就包括了timer的硬件。由于没有统一的标准,各个厂商的设计各不相同,这给驱动工程师带来了工作量。然而,如果仅仅是工作量的话就还好,实际上,不仅仅如此。linux的时间子系统要求硬件timer提供下面两种能力:一是free running的counter,此外需要能够在指定的counter值上产生中断的能力。有些硬件厂商会考虑到软件的需求(例如:PXA270的timer硬件),但是有些硬件厂商做的就不够,例如:S3C2451的timer硬件。我们在写PXA270的timer硬件驱动的时候是毫无压力的,而在写S3C2451的timer的驱动的时候,最大的愿望就是把三星的HW timer的设计人员拉出来打一顿。
进入多核时代后,ARM公司提供了timer的硬件设计,集成在了自己的多核结构中。例如:在Cortex A15 MPcore的硬件体系结构中有一个HW block叫做Generic Timer(该硬件取代了A9中的global timer、private timer的功能),为系统提供了计时以及触发timer event的功能。
本文主要描述了Generic Timer的相关硬件知识以及在linux kernel中如何驱动该硬件。Generic Timer的代码位于linux-3.14/drivers/clocksource/目录下,该目录保存了所有clock source相关的driver,arm_arch_timer.c就是驱动Cortex A15 MPcore的Generic Timer的。
二、硬件描述
1、block diagram
ARM generic timer相关的硬件block如下图所示(用绿色标记):
ARM generic timer的硬件block主要是SOC上的System counter(多个process共享,用来记录时间的流逝)以及附着在各个processor上的Timer(用于触发timer event)组成,其他的generic timer的硬件电路主要是用来进行交流generic time event的。例如各个processor中的timer和system counter外设进行交互,各个processor中的timer进行信息交互。System counter的功能很简单,就是计算输入时钟已经过了多少个clock,开始的时候是0,每一个clock,System counter会加一。System counter的counter value需要分发到各个timer中,也就是说,从各个timer的角度看,system counter value应该是一致的。Timer其实就是定时器,它可以定义一段指定的时间,当时间到了,就会assert一个外部的输出信号(可以输出到GIC,作为一个interrupt source)。
从power domain来看,ARM generic timer分成两个部分:System counter和各个Multiprocessor系统中的Timer_x、接口电路等。之所以这么分原因很明显:功耗方面(电源管理)的考量。在power saving mode下,可以shutdown各个processor系统的供电,但是可以保持system counter的供电,这样,至少系统时间可以保持住。
和power domain类似,clock domain也是不同的,system counter和processor工作在不同的clock下,软件修改了CPU的频率也不会影响system counter的工作节奏,从而也不会改变timer的行为。
2、System counter
关于System Counter的规格整理如下:
规格 | 描述 |
System counter的计数器有多少bit? | 至少56个bit,和具体的实现相关。 |
输入频率的范围为何? | 典型值是1M~50MHz |
操作模式为何? | 正常的时候,每个clock都会加一,但是,在power saving mode的时候,我们希望功耗可以更低一些,这时候会考虑将system clock的输入频率降低下来,例如降低4倍。为了保证system counter的计时是准确的,可以设定每个clock增加4,而不是加1,这样system counter的计时仍然保持准确。 |
溢出时间 | 至少40年 |
精度要求为何? | 未规定,推荐是每24小时在正负10秒的误差 |
reset值为何? | 0 |
是否支持debug? | 可以设定enable halt-on-debug。这个和JTAG调试相关。如果你使用JTAG调试,在单步运行的时候当然系统counter停下来,否则timer的中断就会来了,导致你无法正常的进行程序代码跟踪。 |
除了基本的计时功能,system count还提供了event stream的功能。我们知道,ARMv7的处理器提供了wait for event的机制,该机制允许processor进入low power state并等待event的到来。这个event可能是来自另外的process的send event指令,也可能是外部HW block产生的event,比如来自system counter的wake-up event。软件可以配置system counter产生周期性的event,具体可以配置的参数包括:
(1)指定产生event的bit。我们可以选择system counter中的低16bit。
(2)选定的bit当发生0到1的迁移(或是1到0的迁移)产生event
经过配置后,实际上system counter产生的是一个event stream,event产生的频率是由选定的bit位置决定的。设定bit 0会产出频率非常高的event stream,而设定15bit会产生频率最慢的event stream,因为system counter的值不断累加,直到bit 15发生翻转才会触发一个event。
3、Timers
各个cpu的timer是根据system counter的值来触发timer event的,因此,系统中一定有一个机制让System counter的值广播到各个CPU的timer HW block上,同时运行在各个processor上的软件可以通过接口获取System counter的值。
处理器可以通过CNTPCT寄存器来获取system counter的当前值,我们称之physical counter。有physical就有virtual,processor可以通过CNTVCT寄存器访问virtual counter,不过,对于不支持security extension和virtualization extension的系统,virtual counter和physical counter是一样的值。
系统中每个processor都会附着多个timer,具体如下:
(1)对于不支持security extension的SOC(不支持security extension也就意味着 不支持virtualization extension),timer实际上有两个,一个是physical timer,另外一个是virtual timer。虽然有两个,不过从行为上看,virtual timer和physical timer行为一致
(2)对于支持security extension但不支持virtualization extension的SOC,每个cpu有三个timer:Non-secure physical timer,Secure physical timer和virtual timer
(3)对于支持virtualization extension的SOC,每个cpu有四个timer:Non-secure PL1 physical timer,Secure PL1 physical timer,Non-secure PL2 physical timer和virtual timer
每个timer都会有三个寄存器(我们用physical timer为例描述):
(1)64-bit CompareValue register。该寄存器配合system counter可以实现一个64 bit unsigned upcounter。如果physical counter - CompareValue >= 0的话,触发中断。也就是说,CompareValue register其实就是一个64比特的upcounter,设定为一个比当前system counter要大的值,随着system counter的不断累加,当system counter value触及CompareValue register设定的值的时候,便会向GIC触发中断。
(2)32-bit TimerValue register。该寄存器配合system counter可以实现一个32 bit signed downcounter(有的时候,使用downcounter会让软件逻辑更容易,看ARM generic timer的设计人员考虑的多么周到)。开始的时候,我们可以设定TimerValue寄存器的值为1000(假设我们想down count 1000,然后触发中断),向该寄存器写入1000实际上也就是设定了CompareValue register的值是system counter值加上1000。随着system counter的值不断累加,TimerValue register的值在递减,当值<=0的时候,便会向GIC触发中断
(3)32-bit控制寄存器。该寄存器主要对timer进行控制,具体包括:enable或是disable该timer,mask或者unmask该timer的output signal(timer interrupt)
各个processor的各个Timer都可以产生中断,因此它和GIC有接口。当然,由于timer的中断是属于各个CPU的,因此使用PPI类型的中断,具体可以参考GIC文档。当然,如果让timer触发中断,当然要确保该timer是enable并且是umask的。
4、软件编程接口
由上面的描述可知,ARM generic timer的硬件包括两个部分:一个是per cpu的timer硬件,另外一个就是system level的counter硬件。对于per cpu的timer硬件,使用system control register(CP15)来访问是最合适的,而且速度也快。要访问system level的counter硬件,当然使用memory mapped IO的形式(请注意block diagram中的APB总线,很多system level的外设都是通过APB访问的)。
三、初始化
1、Generic Timer的device node和Generic Timer clocksource driver的匹配过程
(1)clock source driver中的声明
在linux/include/linux/clocksource.h目录下的clocksource.h文件中定义了CLOCKSOURCE_OF_DECLARE宏如下:
#define CLOCKSOURCE_OF_DECLARE(name, compat, fn) \
static const struct of_device_id __clksrc_of_table_##name \
__used __section(__clksrc_of_table) \
= { .compatible = compat, \
.data = (fn == (clocksource_of_init_fn)NULL) ? fn : fn }
CLOCKSOURCE_OF_DECLARE这个宏其实就是初始化了一个struct of_device_id的静态常量,并放置在__clksrc_of_table section中。arm_arch_timer.c文件中使用CLOCKSOURCE_OF_DECLARE这个宏定义了若干个静态的struct of_device_id常量,如下:
CLOCKSOURCE_OF_DECLARE(armv7_arch_timer, "arm,armv7-timer", arch_timer_init);
CLOCKSOURCE_OF_DECLARE(armv8_arch_timer, "arm,armv8-timer", arch_timer_init);CLOCKSOURCE_OF_DECLARE(armv7_arch_timer_mem, "arm,armv7-timer-mem",
arch_timer_mem_init);
这里compatible的名字使用了armv7、armv8这样的字样而不是Cortex A15,我猜测ARM公司是认为这样的generic timer的硬件block是ARMv7或者v8指令集的特性,所有使用这些指令集的core都应该使用这样的generic timer的硬件结构。不论是v7还是v8,其初始化函数都是一个arch_timer_init。从这个角度看,把ARM的generic timer的驱动放到drivers的目录下更合理(原来是放在arch目录下),这样多个arch(ARM和ARM64)可以共享一个ARM ARCH timer的驱动程序。
这里还有一个疑问是:"arm,armv7-timer"和"arm,armv7-timer-mem"有什么不同?实际上访问ARM generic timer有两种形式,一种是通过协处理器CP15访问timer的寄存器,我们称之CP15 timer。另外一种是通过寄存器接口访问timer,也就是说,generic timer的控制寄存器被memory map到CPU的地址空间,这种我们称之memory mapped timer。arch_timer_mem_init是for memory mapped timer类型的驱动初始化的,arch_timer_init是for CP15 timer类型的驱动进行初始化的。
Travelhop同学在他的程序员的“纪律性”文章中说到:有技术追求的年轻人要多问几个为什么?因此,我们这里再追问一个问题:为何要有CP15 timer和memory mapped timer呢?都能完成对ARM generic timer的控制,为什么要提供两种方式呢?其实最开始的时候,driver只支持CP15 type的timer访问形态,毕竟这种方式比memory mapped register的访问速度要更快一些。但是,这种方式不能控制system level的counter硬件部分(只能使用memory mapped IO形式访问),因此功能受限。比如:system counter可以提供一组frequency table,可以让软件设定当然counter的输入频率以及每个clock下counter增加的数目。这样的设定可以让system counter的硬件在不同的输入频率下工作,有更好的电源管理特性。
此外,有些系统不支持协处理的访问,这种情况下又想给系统增加ARM generic timer的功能,这时候必须使用memory mapped register的方式来访问ARM generic timer的所有硬件block(包括system counter和per cpu的timer)。这时候,在访问timer硬件的时候虽然性能不佳,但总是好过功能丧失。
在linux kernel编译的时候,你可以配置多个clocksource进入内核,编译系统会把所有的CLOCKSOURCE_OF_DECLARE宏定义的数据放入到一个特殊的section中(section name是__clksrc_of_table),我们称这个特殊的section叫做clock source table。这个table也就保存了kernel支持的所有的clock source的ID信息(最重要的是驱动代码初始化函数和DT compatible string)。我们来看看struct of_device_id的定义:
struct of_device_id
{
char name[32];------要匹配的device node的名字
char type[32];-------要匹配的device node的类型
char compatible[128];---匹配字符串(DT compatible string),用来匹配适合的device node
const void *data;--------对于clock source,这里是初始化函数指针
};
这个数据结构主要被用来进行Device node和driver模块进行匹配用的。从该数据结构的定义可以看出,在匹配过程中,device name、device type和DT compatible string都是考虑的因素。更细节的内容请参考__of_device_is_compatible函数。
(2)device node
一个示例性的Generic Timer(CP15 type的timer)的device node(我们以瑞芯微的RK3288处理器为例)定义如下:
timer {
compatible = "arm,armv7-timer";
interrupts = <GIC_PPI 13 (GIC_CPU_MASK_SIMPLE(4) | IRQ_TYPE_LEVEL_HIGH)>,
<GIC_PPI 14 (GIC_CPU_MASK_SIMPLE(4) | IRQ_TYPE_LEVEL_HIGH)>,
<GIC_PPI 11 (GIC_CPU_MASK_SIMPLE(4) | IRQ_TYPE_LEVEL_HIGH)>,
<GIC_PPI 10 (GIC_CPU_MASK_SIMPLE(4) | IRQ_TYPE_LEVEL_HIGH)>;
clock-frequency = <24000000>;
};
Generic Timer这个HW block的Device node中定义了各种属性,其中就包括了System counter的输入clock frequency,中断资源描述等信息。compatible 属性用于驱动匹配的,在系统启动的时候,系统中的所有的device node形成一个树状结构,在clock source初始化的时候进行device node和driver匹配(compatible 字符串的比对),device node携带的信息会在初始化的时候传递给具体的驱动。该节点的各个属性的具体含义后面会详细描述。
MMIO type的timer的device node(我们以高通的msm8974处理器为例)定义如下:
timer@f9020000 {
#address-cells = <1>;
#size-cells = <1>;
ranges;
compatible = "arm,armv7-timer-mem";
reg = <0xf9020000 0x1000>;--------system counter的寄存器
clock-frequency = <19200000>;frame@f9021000 {-----------percpu的timer的定义,目前最大支持8个frame
frame-number = <0>;
interrupts = <0 8 0x4>, -------physical timer的中断
<0 7 0x4>; ----------virtual timer的中断
reg = <0xf9021000 0x1000>,-----first view base address
<0xf9022000 0x1000>;------second view base address
};……
};
(3)device node和clock source driver的匹配
在系统初始化的时候start_kernel函数会调用time_init进行时间子系统的初始化,代码如下:
void __init time_init(void)
{
if (machine_desc->init_time) {
machine_desc->init_time();
} else {
#ifdef CONFIG_COMMON_CLK
of_clk_init(NULL);
#endif
clocksource_of_init();
}
}
clock source的初始化有两种形态,一种是调用machine driver的init_time函数,另外一种是调用clocksource_of_init,使用device tree形式的初始化。具体使用哪种形态的初始化是和系统设计相关的,我们这里来看看device tree形式的初始化,毕竟device tree是未来的方向。具体代码如下:
void __init clocksource_of_init(void)
{
struct device_node *np;
const struct of_device_id *match;
clocksource_of_init_fn init_func;
unsigned clocksources = 0;for_each_matching_node_and_match(np, __clksrc_of_table, &match) {
if (!of_device_is_available(np))
continue;init_func = match->data;
init_func(np);
clocksources++;
}
if (!clocksources)
pr_crit("%s: no matching clocksources found\n", __func__);
}
__clksrc_of_table就是内核的clock source table,这个table也就保存了kernel支持的所有的clock source driver的ID信息(用于和device node的匹配)。clocksource_of_init函数执行之前,系统已经完成了device tree的初始化,因此系统中的所有的设备节点都已经形成了一个树状结构,每个节点代表一个设备的device node。clocksource_of_init是针对系统中的所有的device node,扫描clock source table,进行匹配,一旦匹配到,就调用该clock source driver的初始化函数,并把该timer硬件的device node作为参数传递给clocksource driver。
2、CP15 Timer初始化代码分析
CP15 Timer初始化代码如下所示:
static void __init arch_timer_init(struct device_node *np)
{
int i;if (arch_timers_present & ARCH_CP15_TIMER) {----------------(1)
pr_warn("arch_timer: multiple nodes in dt, skipping\n");
return;
}arch_timers_present |= ARCH_CP15_TIMER;
for (i = PHYS_SECURE_PPI; i < MAX_TIMER_PPI; i++)--------------(2)
arch_timer_ppi[i] = irq_of_parse_and_map(np, i);arch_timer_detect_rate(NULL, np); ------------------------(3)
if (is_hyp_mode_available() || !arch_timer_ppi[VIRT_PPI]) {-------------(4)
arch_timer_use_virtual = false;if (!arch_timer_ppi[PHYS_SECURE_PPI] ||
!arch_timer_ppi[PHYS_NONSECURE_PPI]) {
pr_warn("arch_timer: No interrupt available, giving up\n");
return;
}
}arch_timer_register(); --------------------------(5)
arch_timer_common_init(); ------------------------(6)
}
(1)arch_timers_present用来记录系统中的timer情况,定义如下:
#define ARCH_CP15_TIMER BIT(0)
#define ARCH_MEM_TIMER BIT(1)
static unsigned arch_timers_present __initdata;
该变量只有两个bit有效,bit 0标识是否有CP15 timer,bit 1标识memory mapped timer是否已经初始化。
如果在调用arch_timer_init之前,ARCH_CP15_TIMER已经置位,说明之前已经有一个ARM arch timer的device node进行了初始化的动作,这多半是由于device tree的database中有两个或者多个cp15 timer的节点,这时候,我们初始化一个就OK了。
(2)这部分的代码是分配IRQ。ARM generic timer使用4个PPI的中断,对于Cortex A15,和timer相关的PPI包括:
Secure Physical Timer event (ID 29,也就是上面device node中的13,29 = 16 + 13)
Non-secure Physical Timer event (ID 30,也就是上面device node中的14,30 = 16 + 14)
Virtual Timer event (ID 27)
Hypervisor Timer event (ID 26)
函数irq_of_parse_and_map对该device node中的interrupt属性进行分析,并分配IRQ number,建立HW interrupt ID和该IRQ number的映射。irq_of_parse_and_map这个函数在中断子系统中已经详细描述过了,这里不再赘述。至此,arch_timer_ppi数组中保存了ARM generic timer使用IRQ number。
(3)arch_timer_detect_rate这个函数用来确定system counter的输入clock频率,具体实现如下:
static void arch_timer_detect_rate(void __iomem *cntbase, struct device_node *np)
{
if (of_property_read_u32(np, "clock-frequency", &arch_timer_rate)) {
if (cntbase)
arch_timer_rate = readl_relaxed(cntbase + CNTFRQ);
else
arch_timer_rate = arch_timer_get_cntfrq();
}
}
arch_timer_rate这个全局变量用来保存system counter的输入频率,基本上,这个数据有两个可能的来源:
(a)device tree node中的clock-frequency属性
(b)寄存器CNTFRQ
我们优先考虑从clock-frequency属性中获取该数据,如果device node中没有定义该属性,那么从CNTFRQ寄存器中读取。访问CNTFRQ寄存器有两种形态,如果cntbase是NULL的话,说明是CP15 timer,可以通过协处理器来获取该值(调用arch_timer_get_cntfrq函数)。如果给出了cntbase的值,说明是memory mapped的方式来访问CNTFRQ寄存器(直接使用readl_relaxed函数)。
(4)如果没有定义virtual timer的中断(arch_timer_ppi[VIRT_PPI]==0),那么我们只能是使用physical timer的,这时候,需要设定arch_timer_use_virtual这个全局变量为false。arch_timer_use_virtual这个变量名字已经说明的很清楚了,它标识系统是否使用virtual timer。ok,既然使用physical timer,那么需要定义physical timer中断,包括secure和non-secure physical timer event PPI。只要有一个没有定义,那么就出错退出了。
如果系统支持虚拟化,那么CPU会处于HYP mode,这时候,我们也是应该使用physical timer的,virtual timer是guest OS需要访问的。
(5) arch_timer_register的代码如下:
static int __init arch_timer_register(void)
{
int err;
int ppi;arch_timer_evt = alloc_percpu(struct clock_event_device);------------(a)
if (arch_timer_use_virtual) {--------------------------(b)
ppi = arch_timer_ppi[VIRT_PPI];
err = request_percpu_irq(ppi, arch_timer_handler_virt,
"arch_timer", arch_timer_evt);
} else {
ppi = arch_timer_ppi[PHYS_SECURE_PPI];
err = request_percpu_irq(ppi, arch_timer_handler_phys,
"arch_timer", arch_timer_evt);
if (!err && arch_timer_ppi[PHYS_NONSECURE_PPI]) {
ppi = arch_timer_ppi[PHYS_NONSECURE_PPI];
err = request_percpu_irq(ppi, arch_timer_handler_phys,
"arch_timer", arch_timer_evt);
}
}err = register_cpu_notifier(&arch_timer_cpu_nb);----------------(c)
err = arch_timer_cpu_pm_init();-----------------------(d)
arch_timer_setup(this_cpu_ptr(arch_timer_evt)); ----------------(e)return 0;
}
(a)分配一个类型是struct clock_event_device的per cpu变量。struct clock_event_device是对一个能够触发timer event的设备进行抽象。对于ARM generic timer而言,每个CPU都有一个timer硬件block,就是一个clock event device。
(b)根据当前是使用physical timer还是virtual timer,分别注册一个per cpu的IRQ。如果使用physical timer的话,需要注册secure和non-secure physical timer event PPI。如果使用virtual timer的话,需要注册virtual timer中断。
(c)这里的代码主要是formulti core系统的,用于non-BSP上的generic timer硬件的初始化,其概念类似GIC driver的初始化,这里就不再具体描述了。
(d)这里主要是注册一个回调函数,在processor进入和退出low power state的时候会调用该回调函数进行电源管理相关的处理。
(e)初始化BSP上的timer硬件对应的clock event device,并调用clockevents_register_device函数将该clock event device注册到linux kernel的时间子系统中。non-BSP的timer硬件的setup是通过event notifier机制完成的,具体请参考步骤c。
(6)CP15 timer和memory mapped timer虽然接口形态不一样,但是总是有共同的部分,这些代码被封装到arch_timer_common_init函数中,具体如下:
static void __init arch_timer_common_init(void)
{
unsigned mask = ARCH_CP15_TIMER | ARCH_MEM_TIMER; ---------(a)
if ((arch_timers_present & mask) != mask) {
if (of_find_matching_node(NULL, arch_timer_mem_of_match) &&
!(arch_timers_present & ARCH_MEM_TIMER))
return;
if (of_find_matching_node(NULL, arch_timer_of_match) &&
!(arch_timers_present & ARCH_CP15_TIMER))
return;
}arch_timer_banner(arch_timers_present);-----------------(b)
arch_counter_register(arch_timers_present);----------------(c)
arch_timer_arch_init();--------------------------(d)
}
(a)实际上,即便是系统中存在两种timer,这个函数的代码执行一次就OK了。这很好理解,例如arch_counter_register函数用来注册system count,而实际上,无论是CP15 timer还是memory mapped的timer,system counter是system level的,只有一个,注册一次就OK了。
明白了上面的思路后,这段代码就比较简单了。在系统中存在两种timer的时候,要等到后一个timer初始化的时候再执行后面具体的arch_timer_banner到arch_timer_arch_init部分的代码。
(b)输出ARM generic timer的相关信息到控制台
(c)向linux kernel的时间子系统注册clock source、timer counter、shed clock设备。
(d)主要是注册delay timer(忙等待那种)。
3、memory mapped Timer初始化代码分析
TODO
四、和linux kernel时间子系统的接口
linux的时间子系统需要两种时间相关的硬件:一个是free running的counter(system counter),抽象为clock source device,另外一个就是能够产生中断的能力的timer(per cpu timer),抽象为clock event device。对于ARM generic timer driver而言,我们需要定义linux kernel时间子系统的clock source和clock event device并注册到系统。
1、定义clocksource并注册到系统
ARM generic timer中的system counter硬件block对应的clock source定义如下:
static struct clocksource clocksource_counter = {
.name = "arch_sys_counter",
.rating = 400,
.read = arch_counter_read,
.mask = CLOCKSOURCE_MASK(56),
.flags = CLOCK_SOURCE_IS_CONTINUOUS | CLOCK_SOURCE_SUSPEND_NONSTOP,
};
(这里顺便吐槽一下clocksource_counter这个变量名,实在是太差了)rating标识该clock source的精度等级,数字越大,精度等级越高。read函数用来读取当前counter的值。在ARM generic timer驱动初始化的过程中会调用arch_counter_register函数注册该clock source:
static void __init arch_counter_register(unsigned type)
{
u64 start_count;if (type & ARCH_CP15_TIMER)--------------------(1)
arch_timer_read_counter = arch_counter_get_cntvct;
else
arch_timer_read_counter = arch_counter_get_cntvct_mem;start_count = arch_timer_read_counter();
clocksource_register_hz(&clocksource_counter, arch_timer_rate);------(2)
cyclecounter.mult = clocksource_counter.mult;
cyclecounter.shift = clocksource_counter.shift;
timecounter_init(&timecounter, &cyclecounter, start_count); ---------(3)/* 56 bits minimum, so we assume worst case rollover */
sched_clock_register(arch_timer_read_counter, 56, arch_timer_rate);------(4)
}
(1)在定义ARM generic timer的clock source的时候,read函数被设定成arch_counter_read,该函数会调用arch_timer_read_counter 函数,而这个函数指针会在初始化的时候根据timer的类型进行设定。
(2)向系统注册一个clock soure(也就是一个free running的counter),并给出counter的工作频率作为传入的参数。linux时间子系统的clock source模块会根据counter的工作频率设定struct clocksource的各个成员,例如mult和shitf等
(3)clocksource模块是为timekeeping模块提供服务的,但是其他的驱动模块也有一些计时需求,这时候可以考虑使用timercounter。ARM generic timer静态定义了一个timercounter的全局变量,其他模块可以通过arch_timer_get_timecounter获取timercounter,并可以调用timecounter_read获取一个纳秒值。
(4)TODO
2、定义clock_event_device并注册到系统
和clocksource不同,ARM generic timer是由alloc_percpu动态分配的。考虑到system counter只有一个,而timer是附着在各个CPU上,这样的分配也是合理的。在driver的初始化过程中(先是BSP初始化,然后其他CPU的初始化是通过event notifier机制完成),会调用arch_timer_setup来初始化clock_event_device数据结构并注册到系统中。
static int arch_timer_setup(struct clock_event_device *clk)
{
__arch_timer_setup(ARCH_CP15_TIMER, clk); ----初始化clock event device并注册到系统if (arch_timer_use_virtual)----------enable timer interrupt
enable_percpu_irq(arch_timer_ppi[VIRT_PPI], 0);
else {
enable_percpu_irq(arch_timer_ppi[PHYS_SECURE_PPI], 0);
if (arch_timer_ppi[PHYS_NONSECURE_PPI])
enable_percpu_irq(arch_timer_ppi[PHYS_NONSECURE_PPI], 0);
}arch_counter_set_user_access();
if (IS_ENABLED(CONFIG_ARM_ARCH_TIMER_EVTSTREAM))---判断是否enable了timer event
arch_timer_configure_evtstream(); -------配置并enable timer eventreturn 0;
}
TODO:这里等到完成clockevent文档之后再来更新。
原创文章,转发请注明出处。蜗窝科技
http://www.wowotech.net/linux_kenrel/arm-generic-timer.html
标签: armv7-timer arm_arch_timer

评论:
2015-07-13 18:21
2015-07-14 23:34
-------------------------------------------
要理解这些ppi的中断,需要理解虚拟化的概念,需要理解security的概念,这些都不是三言两语可以讲清楚的,更重要的是我也在消化理解中,呵呵~~~
关于local timer的解释
---------------------------
35 timer {
36 compatible = "arm,armv7-timer";
37 interrupts = <1 2 0xff08>,
38 <1 3 0xff08>,
39 <1 4 0xff08>,
40 <1 1 0xff08>;
41 clock-frequency = <19200000>;
42 };
如果dts文件中包括上面这样的armv7-timer的device node,那么说明硬件系统包括system counter(这是全局性的counter)以及各个processor的local timer的硬件。各个local timer的中断只会送达本processor而不会送往其他的processor,因此注册的是PPI的中断。
memory map的timer
--------------------------------------
memory map的timer是全局性的timer(这里的全局是指对所有的processor都是可见的),因此该timer需要注册的是SPI类型的中断。
2019-06-15 10:53
PHYS_SECURE_PPI,
PHYS_NONSECURE_PPI,
VIRT_PPI,
HYP_PPI,
MAX_TIMER_PPI
};
35 timer {
36 compatible = "arm,armv7-timer";
37 interrupts = <1 2 0xff08>,
38 <1 3 0xff08>,
39 <1 4 0xff08>,
40 <1 1 0xff08>;
41 clock-frequency = <19200000>;
42 };
这些是local-timer,IPI类型;从interrupts = <1 ***>, 这个1 就是IPI。
linux-kernel运行在EL1的话,一般会选择VIRT_PPI,即 <1 4 0xff08>;
linux-kernel运行在EL2的话(with ArmV8.1-VHE,虚拟化),会选择HYP_PPI,即即 <1 1 0xff08>。
2015-05-26 13:28
2015-05-26 19:04
我很奇怪,你为何要使内核timekeeper的墙上时间变快或者变慢,用来欺骗谁呢?这是一个什么功能?
2015-04-29 10:15
你好,有些概念我看了之后还是觉得有点模糊,麻烦你帮忙解答一下,多谢。抱歉我对这一块的理解有欠缺,似懂非懂,要真正做一遍才能彻底领悟,目前的问题本身也许也存在问题,请你包涵。
我们的SOC采用一个单核的A5,由于A5单核模式下面不支持ARM的generic timer架构,于是只能自己去搭这个timer的架构。目前是用一个56 bit的的system counter放在always-on里面,这个counter一直不停下,如果要读取的话是通过mem map方式读取。由于A5 core里面没有集成timer,因此在SOC级别放了一个32 bit的timer,同样通过mem map方式读取和配置timer。下面的这些问题我没有想明白:
1. 在我们自己的架构下,arm_arch_timer.c 是不是就不能直接用了? 比如timer肯定不能直接使用这个模块的代码,因为我们用的不是ARM的timer IP,因此寄存器不一样。
2. system counter我准备按照ARM的代码创建:
static struct clocksource clocksource_counter = {
.name = "arch_sys_counter",
.rating = 400,
.read = arch_counter_read,
.mask = CLOCKSOURCE_MASK(56),
.flags = CLOCK_SOURCE_IS_CONTINUOUS | CLOCK_SOURCE_SUSPEND_NONSTOP,
};
上面是照抄的,我觉得应该不需要改动什么,自己实现一下read函数就行了。
3. timer,这个需要去实现clock_event_device结构体,我准备照抄kernel里面tegra现成的:
static struct clock_event_device tegra_clockevent = {
.name = "timer0",
.rating = 300,
.features = CLOCK_EVT_FEAT_ONESHOT | CLOCK_EVT_FEAT_PERIODIC,
.set_next_event = tegra_timer_set_next_event,
.set_mode = tegra_timer_set_mode,
};
CLOCK_EVT_FEAT_PERIODIC这个flag需要置位吗?ARM的代码里面似乎没有置位。假设我不主动置位,会影响系统的什么特性吗?
CLOCK_EVT_FEAT_C3STOP这个flag是否需要置位?我看ARM把cp15类型的per cpu timer置位了这个flag,但是其它mem map的timer没有置位,我们用的是mem map类型的,所以这个不需要置位。
还有个问题:这个timer的精度只有300,在我们SOC里面全靠它来更新ktime,这样的架构是否有问题?是否有可能改进设计?
4. 我看到kernel里面有关于broadcast timer的代码,在我们的SOC里面只有单核A5,是否完全不需要考虑这一块的设计?当它不存在就可以了?下面两个config不知道是否需要打开?
CONFIG_ARCH_HAS_TICK_BROADCAST=y
CONFIG_GENERIC_CLOCKEVENTS_BROADCAST=y
5. 单核的A5, timer不在core里面,假设用了no_hz,那么如果进入cpuidle,这个timer是关还是开呢?我觉得必须开着,否则下一个timer中断就不会过来了因为timer关闭了。
6.单核A5, timer不在core里面,假设用了no_hz,那么如果进入suspend,这个timer是关还是开呢?我觉得可以关闭,因为我们的system counter放在always-on里面,系统resume的时候可以通过读取system counter来补偿ktime。并且kernel suspend的时候普通的软件timer是不可能唤醒系统的,所以这个timer可以关闭。
7. 假设这是别家的芯片,多核A5, SMP,并且采用了ARM generic timer的架构,那么它是怎么运作的? 当cpu3进入cpuidle的时候,cpu3的core被clk gating了,那么cpu3的timer可能也被停止了,这时候是需要借助同一个cluster里面其它的cpu来给cpu3 broadcast timer中断吗? 这里涉及到一个设计逻辑:在cpu3进入cpuidle之前,cpu3是否会判断和计算一下下一个到期的timer,如果下一个timer很快到期,cpu3有两种选择,要么完全依赖于cpu0~cpu2的broadcast timer irq,直接idle。要么干脆不idle了先处理完下一个timer事件再说。我猜应该是前一种,甚至可以理解为cpu3执行idle代码的时候不会判断到期的timer,直接发出一个broadcast timer的广播,告诉其它cpu接管timer事件,然后cpu3直接idle。
8. broadcast这种行为,是由同一个cluster里面的其它cpu利用自身的cp15 timer的中断来广播给已经idle的cpu,还是全局的mem map的timer利用自身的timer中断来广播给所有的cpu?我觉得后者的可能性更高一些,假设一个cluster里面有cpu0~cpu3,假设cpu3进入cpuidle并且timer停止了,那么cpu0, cpu1, cpu2的timer仍然在运行中不受影响,一个全局的具有broadcast功能的timer会负责记录cpu3上面的下一个唤醒事件,等触发时间到来的时候,全局timer负责唤醒cpu3,这个过程中cpu0, cpu1, cpu2并不会接收这个广播事件,因为它们自身的cpu timer运行良好并不需要全局timer的帮助。理解是否正确?
9. cpuidle的时候per-cpu的timer是否关闭是否要看进入idle的级别?如果是最浅的级别,cpu简单执行了WFI,那么这种情况下per-cpu的timer应该不会停下,所以下一个event到期了之后cpu可以顺利被per-cpu timer唤醒。 如果进入的idle级别很深,肯定会关闭per-cpu timer, 这时候对系统架构来说是不是必须有一个全局的broadcast timer存在?否则的话这个idle的cpu就不能正常处理tick了,是不是会有问题? 有没有可能其它没有idle的cpu通过IPI来广播timer event给这个已经idle的cpu?
问题有点多,有点长,不好意思。期待你的耐心解答,先谢过了 :)
2015-04-29 12:56
---------------------
的确是不能直接使用了。不过听你的描述,你们是A5单核系统,因此cpu core中没有local timer,这时候,system counter和HW timer都集成在SOC上的一个HW block中,这时候使用arm_arch_timer.c作为参考其实不是那么适合,建议使用PXA系列的timer程序做参考就OK了。
CLOCK_EVT_FEAT_PERIODIC这个flag需要置位吗?ARM的代码里面似乎没有置位。假设我不主动置位,会影响系统的什么特性吗?
-----------------------------
这个flag和底层硬件是否有周期性产生timer中断相关,如果硬件有这个能力,当然要设定并且在clock event device中实现set_mode这个callback函数。如果不设定这个标记也没有关系,这也意味着底层的hw timer只是支持one shot mode,那么tick device layer会帮你用one shot mode来模拟周期性的timer中,具体参考tick_setup_periodic代码
CLOCK_EVT_FEAT_C3STOP设定问题
----------------------
其实我的文档中已经描述过这个问题。这个是和cpu idle的实现有关,如果你们打算设计的cpu idle状态不会导致HW timer停止工作就不需要设定这个bit。
还有个问题:这个timer的精度只有300,在我们SOC里面全靠它来更新ktime,这样的架构是否有问题?是否有可能改进设计?
-------------------------------
timer的rating是300不意味timer的精度就是300,实际timer的精度是和system counter以及HW timer的输入的clock设定相关的
我看到kernel里面有关于broadcast timer的代码,在我们的SOC里面只有单核A5,是否完全不需要考虑这一块的设计?当它不存在就可以了?下面两个config不知道是否需要打开?
----------------------
没有CLOCK_EVT_FEAT_C3STOP的问题则不需要打开
单核的A5, timer不在core里面,假设用了no_hz,那么如果进入cpuidle,这个timer是关还是开呢?我觉得必须开着,否则下一个timer中断就不会过来了因为timer关闭了。
----------------------------
设计是平衡的艺术。打开timer、功耗增加,关闭timer、虽然降低功耗,但是会增加软件的复杂度(需要进行特别的设计)。你问的这个问题是一个SOC设计的问题,不是一个时间子系统的软件设计问题,当然,最终的答案来自你们的产品需求。
其他问题改天再回答吧,^_^
2015-04-29 14:05
关于CLOCK_EVT_FEAT_C3STOP的设置,我的理解是:假设我们系统只有一个A5 core,SOC里面假设有5个timer。那么在cpu idle的时候就算我把和A5绑定的那个local timer关闭了,我仍然要让另外一个timer来做广播,似乎多次一举,还不如直接让A5的local timer一直运行着,毕竟在我们的架构下面local timer就是普通的SOC timer,不存在哪一个更省电的问题。这样子我在定义clock event device的时候不应该设置CLOCK_EVT_FEAT_C3STOP这个flag,同时也不应该开启那两个broadcast的config,
不知道理解是否正确?
期待你对我其它问题的解答 :)
2015-04-30 00:34
顺便聊几句关于CPU idle设计的问题。这个问题实际上是一个系统问题,需要多个工种来协调。从系统软件的角度来看,当然希望能够在cpu idle的时候保持timer的运作,这样软件复杂度比较简单,但是如果设计的CPU本身需要提供极低功耗的特性,那么在执行cpu idle的时候,有可能会关闭更多的HW block以便节省功耗,这时候,软件team只能妥协了。
2015-04-30 22:16
对这个问题我仍然有疑惑:在只有一个A5 core的SOC里面假设有5个timer。假设我把其中一个timer配置成了A5 的local timer,假设HW团队也不反对,我在定义clock event device的时候不设置CLOCK_EVT_FEAT_C3STOP这个flag,同时也不开启那两个broadcast的config,在cpu idle的时候和A5绑定的那个local timer仍然运行,系统中另外的4个timer都没有用来做广播,请问这样子的设计是不是对软硬件都最好的设计?
2015-05-04 10:17
2015-05-04 23:11
1、工作状态。
2、deep sleep状态。
工作状态非常短,可能每隔十几分钟醒来一次进行运算,整个工作状态可能就几个毫秒,运算完毕就立刻进入deep sleep状态。
在deep sleep状态,除了一个小小模块在工作,其余的HW block都被shutdown,这个小小模块包括(和wakeup source相关):
1、RTC
2、几个GPIO的硬件逻辑
3、PMU
上面的几个电路可以正常工作,但是工作在非常慢的clock上,例如32K的晶振(这时候,系统的main crystal也被turn off)。除了上面的几个block,所有的power被turn off
我感觉,这时候cpu idle framework似乎是无法满足超低功耗的需求。
2015-05-05 12:15
1、CPU idle和suspend是两种不同的状态,本质上CPU idle用于系统的working mode(例如在编辑文本的过程中,cpu暂时休息一下,等到用户输入),这时候,整个系统的外设都是standby的,按理说任何外设的中断事件都应该可以让CPU立刻回到working mode。只不过,由于multi core体系下,很多的外设build in到CPU core,因此,cpu idle也有可能关闭那些build in的外设。suspend绝对是一个系统行为,需要系统的全部模块参与,CPU idle仅仅是由cpu这一个HW block参与。
2、如果系统的负荷非常轻,那么其实没有必要设计复杂的cpu idle状态,因此这时候系统的行为多半是迅速处理完事情,立刻suspend
3、suspend的开销比较大(进入的时候要冻结所有进程、遍历所有driver),处于suspend的时间要足够久才能省电。如果suspend了,但是2秒就resume,肯定是起不到省电的目的
4、suspend的时候,时间子系统已经suspend(各种普通timer已经没有意义了),只能借助RTC来唤醒系统,也就是说需要使用alarm timer。
5、可能有人会问:如果换成cpuidle也进入最深级别,假设采用一模一样的代码逻辑,只留下rtc,gpio,pmu,会有什么问题吗?
---------------------------
基本上这个很有困难,cpu idle是内核的自主行为,不需要其他外设驱动的状态,也不需要考虑AP的感受。suspend是一个系统行为,一般由AP发起
6、问题:是不是一定需要一个HW timer可以用来唤醒cpu,否则的话就违反了cpuidle的定义?
----------------------
重点不是HW timer,而是整个系统仍然处于工作状态,任何用户的动作、或者外设的动作都需要系统响应。
2015-04-22 12:14
对CP15盒mem两种模式的system counter的读取方式解读有误。
事实上只要系统中存在了cp15类型的模式,mem模式时不会调用到的, 看源码:
arch_counter_read-->arch_counter_get_cntvct-->arch_timer_read_counter()
arch_timer_read_counter是一个函数指针,它的定义如下:
u64 (*arch_timer_read_counter)(void) = arch_counter_get_cntvct_cp15;
所以初始化的时候默认采用cp15方式读取,再看下是否有人对它赋值:
static void __init arch_counter_register(unsigned type)
{
u64 start_count;
/* Register the CP15 based counter if we have one */
if (type & ARCH_CP15_TIMER)
arch_timer_read_counter = arch_counter_get_cntvct_cp15;
else
arch_timer_read_counter = arch_counter_get_cntvct_mem;
......
}
所以在初始化的时候,假设cp15和mem两种方式同时存在,那么只会采用cp15。只有当cp15不存在的时候,才会用到mem,也就是函数arch_counter_get_cntvct_mem
再看下你举例里面高通8974的例子,事实上你漏了dtsi里面前面的一段:
timer {
compatible = "arm,armv7-timer";
interrupts = <1 2 0xf08>,
<1 3 0xf08>,
<1 4 0xf08>,
<1 1 0xf08>;
clock-frequency = <19200000>;
};
timer@f9020000 {
#address-cells = <1>;
#size-cells = <1>;
ranges;
compatible = "arm,armv7-timer-mem";
reg = <0xf9020000 0x1000>;
clock-frequency = <19200000>;
......
请注意8974平台注册了arm,armv7-timer这种cp15类型的system counter。
后面的arm,armv7-timer-mem是为了注册timer用的,并不代表system counter会真的采用mem模式去读取。
2015-04-22 13:06
实际上每次回头再看以前的文档都是觉得惨不忍睹。实际上cp15和memory map的方式有很大性能的不同,我相信ARM公司终将会把per core类型的硬件全部使用cp15类型的方式来访问。对于timer硬件,global的counter是全局的,应该是使用memory map的方式访问,属于各个cpu core的local timer,应该应用更快的系统总线(CP15)访问。同样的道理也适用于GIC,在最新的GIC中已经移除了CPU interface这部分的HW block功能,只是保留Distributor的内容,而原来GIC中的CPU interface被集成到了ARM core中。
2014-12-04 22:08
2014-12-04 22:42
1、upcounter类型的。类似PXA270处理器的timer硬件,有一个free running的counter,有一个match register,free running的counter在某个输入频率下工作,每一个clock加一,周而复始。只要free running的counter在数值上等于match register的值,就会触发中断。
2、downcounter类型的。类似S3C2451处理器的timer,有一个counter初始值寄存器,还有一个counter寄存器,一旦enable了counter寄存器,初始值被加载到这个counter寄存器,然后counter在某个输入频率下工作,每一个clock减去一,达到0值则触发中断。
这两种counter各有优点和缺点:upcounter型的timer硬件的好处是符合linux kernel的需求,一个timer的硬件就可以支持clocksource和clockevent模型。downcounter类型的优点是这种timer可以设定周期模式和one shot模式。one shot模式就是中断只产生一次。周期模式在产生中断的时候,初始值寄存器会重新加载到counter中,counter继续counter down,中断会周期性的产生。不过,downcounter无法符合linux对clock source的抽象。
ARM的general timer的硬件当然是想集成upcounter和downcounter的好处,因此ARM的general timer既可以做upcounter,也可以做downcounter。
2014-12-04 22:50
还有一个疑问 msm8974 timer 的代码寄存器地址是从0xf9020000开始,他的这个地址是虚拟地址 还是物理地址?
功能
最新评论
- wangjing
写得太好了 - wangjing
写得太好了! - DRAM
圖面都沒辦法顯示出來好像掛點了。 - Simbr
bus至少是不是还有个subsystem? - troy
@testtest:只要ldrex-modify-strex... - gh
Linux 内核在 sparse 内存模型基础上实现了vme...
文章分类
随机文章
文章存档
- 2025年4月(5)
- 2024年2月(1)
- 2023年5月(1)
- 2022年10月(1)
- 2022年8月(1)
- 2022年6月(1)
- 2022年5月(1)
- 2022年4月(2)
- 2022年2月(2)
- 2021年12月(1)
- 2021年11月(5)
- 2021年7月(1)
- 2021年6月(1)
- 2021年5月(3)
- 2020年3月(3)
- 2020年2月(2)
- 2020年1月(3)
- 2019年12月(3)
- 2019年5月(4)
- 2019年3月(1)
- 2019年1月(3)
- 2018年12月(2)
- 2018年11月(1)
- 2018年10月(2)
- 2018年8月(1)
- 2018年6月(1)
- 2018年5月(1)
- 2018年4月(7)
- 2018年2月(4)
- 2018年1月(5)
- 2017年12月(2)
- 2017年11月(2)
- 2017年10月(1)
- 2017年9月(5)
- 2017年8月(4)
- 2017年7月(4)
- 2017年6月(3)
- 2017年5月(3)
- 2017年4月(1)
- 2017年3月(8)
- 2017年2月(6)
- 2017年1月(5)
- 2016年12月(6)
- 2016年11月(11)
- 2016年10月(9)
- 2016年9月(6)
- 2016年8月(9)
- 2016年7月(5)
- 2016年6月(8)
- 2016年5月(8)
- 2016年4月(7)
- 2016年3月(5)
- 2016年2月(5)
- 2016年1月(6)
- 2015年12月(6)
- 2015年11月(9)
- 2015年10月(9)
- 2015年9月(4)
- 2015年8月(3)
- 2015年7月(7)
- 2015年6月(3)
- 2015年5月(6)
- 2015年4月(9)
- 2015年3月(9)
- 2015年2月(6)
- 2015年1月(6)
- 2014年12月(17)
- 2014年11月(8)
- 2014年10月(9)
- 2014年9月(7)
- 2014年8月(12)
- 2014年7月(6)
- 2014年6月(6)
- 2014年5月(9)
- 2014年4月(9)
- 2014年3月(7)
- 2014年2月(3)
- 2014年1月(4)
2015-07-13 17:00
enum ppi_nr {
PHYS_SECURE_PPI,
PHYS_NONSECURE_PPI,
VIRT_PPI,
HYP_PPI,
MAX_TIMER_PPI
};
35 timer {
36 compatible = "arm,armv7-timer";
37 interrupts = <1 2 0xff08>,
38 <1 3 0xff08>,
39 <1 4 0xff08>,
40 <1 1 0xff08>;
41 clock-frequency = <19200000>;
42 };
高通以ppi中断的形式用request_percpu_irq注册了四个ppi中断,我想问这个注册四个具体作用是什么?我有点迷惑这个是global timer还是local timer,而且为什么要以PPI形式注册。
timer@b120000 {
142 #address-cells = <1>;
143 #size-cells = <1>;
144 ranges;
145 compatible = "arm,armv7-timer-mem";
146 reg = <0xb120000 0x1000>;
147 clock-frequency = <19200000>;
148
149 frame@b121000 {
150 frame-number = <0>;
151 interrupts = <0 8 0x4>,
152 <0 7 0x4>;
153 reg = <0xb121000 0x1000>,
154 <0xb122000 0x1000>;
155 };
156
157 frame@b123000 {
158 frame-number = <1>;
159 interrupts = <0 9 0x4>;
160 reg = <0xb123000 0x1000>;
161 status = "disabled";
162 };
163
164 frame@b124000 {
165 frame-number = <2>;
166 interrupts = <0 10 0x4>;
167 reg = <0xb124000 0x1000>;
168 status = "disabled";
169 };
................
而这几个按照你上面所说的MMIO注册的timer,这几个timer我能够理解是以SPI形式注册不同core的system counter和local timer,但对于cp15上面注册的4个PPI确实不太能理解原理,能解释下吗