pci-exynos.c 12.9 KB
Newer Older
1
// SPDX-License-Identifier: GPL-2.0
2 3 4 5 6 7 8 9 10 11 12 13 14 15
/*
 * PCIe host controller driver for Samsung EXYNOS SoCs
 *
 * Copyright (C) 2013 Samsung Electronics Co., Ltd.
 *		http://www.samsung.com
 *
 * Author: Jingoo Han <jg1.han@samsung.com>
 */

#include <linux/clk.h>
#include <linux/delay.h>
#include <linux/gpio.h>
#include <linux/interrupt.h>
#include <linux/kernel.h>
16
#include <linux/init.h>
17
#include <linux/of_device.h>
18 19 20
#include <linux/of_gpio.h>
#include <linux/pci.h>
#include <linux/platform_device.h>
21
#include <linux/phy/phy.h>
22 23 24 25 26 27
#include <linux/resource.h>
#include <linux/signal.h>
#include <linux/types.h>

#include "pcie-designware.h"

28
#define to_exynos_pcie(x)	dev_get_drvdata((x)->dev)
29 30 31

/* PCIe ELBI registers */
#define PCIE_IRQ_PULSE			0x000
32 33 34 35
#define IRQ_INTA_ASSERT			BIT(0)
#define IRQ_INTB_ASSERT			BIT(2)
#define IRQ_INTC_ASSERT			BIT(4)
#define IRQ_INTD_ASSERT			BIT(6)
36 37 38 39
#define PCIE_IRQ_LEVEL			0x004
#define PCIE_IRQ_SPECIAL		0x008
#define PCIE_IRQ_EN_PULSE		0x00c
#define PCIE_IRQ_EN_LEVEL		0x010
40
#define IRQ_MSI_ENABLE			BIT(2)
41 42 43
#define PCIE_IRQ_EN_SPECIAL		0x014
#define PCIE_PWR_RESET			0x018
#define PCIE_CORE_RESET			0x01c
44
#define PCIE_CORE_RESET_ENABLE		BIT(0)
45 46 47 48 49 50 51 52
#define PCIE_STICKY_RESET		0x020
#define PCIE_NONSTICKY_RESET		0x024
#define PCIE_APP_INIT_RESET		0x028
#define PCIE_APP_LTSSM_ENABLE		0x02c
#define PCIE_ELBI_RDLH_LINKUP		0x064
#define PCIE_ELBI_LTSSM_ENABLE		0x1
#define PCIE_ELBI_SLV_AWMISC		0x11c
#define PCIE_ELBI_SLV_ARMISC		0x120
53
#define PCIE_ELBI_SLV_DBI_ENABLE	BIT(21)
54

55 56 57 58 59 60 61 62 63 64
struct exynos_pcie_mem_res {
	void __iomem *elbi_base;   /* DT 0th resource: PCIe CTRL */
};

struct exynos_pcie_clk_res {
	struct clk *clk;
	struct clk *bus_clk;
};

struct exynos_pcie {
65
	struct dw_pcie			*pci;
66 67 68 69
	struct exynos_pcie_mem_res	*mem_res;
	struct exynos_pcie_clk_res	*clk_res;
	const struct exynos_pcie_ops	*ops;
	int				reset_gpio;
70 71

	struct phy			*phy;
72 73 74 75 76 77 78 79 80 81 82 83
};

struct exynos_pcie_ops {
	int (*get_mem_resources)(struct platform_device *pdev,
			struct exynos_pcie *ep);
	int (*get_clk_resources)(struct exynos_pcie *ep);
	int (*init_clk_resources)(struct exynos_pcie *ep);
	void (*deinit_clk_resources)(struct exynos_pcie *ep);
};

static int exynos5440_pcie_get_mem_resources(struct platform_device *pdev,
					     struct exynos_pcie *ep)
84
{
85 86
	struct dw_pcie *pci = ep->pci;
	struct device *dev = pci->dev;
87 88 89 90 91 92 93 94 95 96 97 98
	struct resource *res;

	ep->mem_res = devm_kzalloc(dev, sizeof(*ep->mem_res), GFP_KERNEL);
	if (!ep->mem_res)
		return -ENOMEM;

	res = platform_get_resource(pdev, IORESOURCE_MEM, 0);
	ep->mem_res->elbi_base = devm_ioremap_resource(dev, res);
	if (IS_ERR(ep->mem_res->elbi_base))
		return PTR_ERR(ep->mem_res->elbi_base);

	return 0;
99 100
}

101
static int exynos5440_pcie_get_clk_resources(struct exynos_pcie *ep)
102
{
103 104
	struct dw_pcie *pci = ep->pci;
	struct device *dev = pci->dev;
105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122

	ep->clk_res = devm_kzalloc(dev, sizeof(*ep->clk_res), GFP_KERNEL);
	if (!ep->clk_res)
		return -ENOMEM;

	ep->clk_res->clk = devm_clk_get(dev, "pcie");
	if (IS_ERR(ep->clk_res->clk)) {
		dev_err(dev, "Failed to get pcie rc clock\n");
		return PTR_ERR(ep->clk_res->clk);
	}

	ep->clk_res->bus_clk = devm_clk_get(dev, "pcie_bus");
	if (IS_ERR(ep->clk_res->bus_clk)) {
		dev_err(dev, "Failed to get pcie bus clock\n");
		return PTR_ERR(ep->clk_res->bus_clk);
	}

	return 0;
123 124
}

125
static int exynos5440_pcie_init_clk_resources(struct exynos_pcie *ep)
126
{
127 128
	struct dw_pcie *pci = ep->pci;
	struct device *dev = pci->dev;
129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148
	int ret;

	ret = clk_prepare_enable(ep->clk_res->clk);
	if (ret) {
		dev_err(dev, "cannot enable pcie rc clock");
		return ret;
	}

	ret = clk_prepare_enable(ep->clk_res->bus_clk);
	if (ret) {
		dev_err(dev, "cannot enable pcie bus clock");
		goto err_bus_clk;
	}

	return 0;

err_bus_clk:
	clk_disable_unprepare(ep->clk_res->clk);

	return ret;
149 150
}

151
static void exynos5440_pcie_deinit_clk_resources(struct exynos_pcie *ep)
152
{
153 154
	clk_disable_unprepare(ep->clk_res->bus_clk);
	clk_disable_unprepare(ep->clk_res->clk);
155 156
}

157 158 159 160 161 162 163
static const struct exynos_pcie_ops exynos5440_pcie_ops = {
	.get_mem_resources	= exynos5440_pcie_get_mem_resources,
	.get_clk_resources	= exynos5440_pcie_get_clk_resources,
	.init_clk_resources	= exynos5440_pcie_init_clk_resources,
	.deinit_clk_resources	= exynos5440_pcie_deinit_clk_resources,
};

164
static void exynos_pcie_writel(void __iomem *base, u32 val, u32 reg)
165
{
166
	writel(val, base + reg);
167 168
}

169
static u32 exynos_pcie_readl(void __iomem *base, u32 reg)
170
{
171
	return readl(base + reg);
172 173
}

174
static void exynos_pcie_sideband_dbi_w_mode(struct exynos_pcie *ep, bool on)
175 176 177
{
	u32 val;

178
	val = exynos_pcie_readl(ep->mem_res->elbi_base, PCIE_ELBI_SLV_AWMISC);
179
	if (on)
180
		val |= PCIE_ELBI_SLV_DBI_ENABLE;
181
	else
182
		val &= ~PCIE_ELBI_SLV_DBI_ENABLE;
183
	exynos_pcie_writel(ep->mem_res->elbi_base, val, PCIE_ELBI_SLV_AWMISC);
184 185
}

186
static void exynos_pcie_sideband_dbi_r_mode(struct exynos_pcie *ep, bool on)
187 188 189
{
	u32 val;

190
	val = exynos_pcie_readl(ep->mem_res->elbi_base, PCIE_ELBI_SLV_ARMISC);
191
	if (on)
192
		val |= PCIE_ELBI_SLV_DBI_ENABLE;
193
	else
194
		val &= ~PCIE_ELBI_SLV_DBI_ENABLE;
195
	exynos_pcie_writel(ep->mem_res->elbi_base, val, PCIE_ELBI_SLV_ARMISC);
196 197
}

198
static void exynos_pcie_assert_core_reset(struct exynos_pcie *ep)
199 200 201
{
	u32 val;

202
	val = exynos_pcie_readl(ep->mem_res->elbi_base, PCIE_CORE_RESET);
203
	val &= ~PCIE_CORE_RESET_ENABLE;
204 205 206 207
	exynos_pcie_writel(ep->mem_res->elbi_base, val, PCIE_CORE_RESET);
	exynos_pcie_writel(ep->mem_res->elbi_base, 0, PCIE_PWR_RESET);
	exynos_pcie_writel(ep->mem_res->elbi_base, 0, PCIE_STICKY_RESET);
	exynos_pcie_writel(ep->mem_res->elbi_base, 0, PCIE_NONSTICKY_RESET);
208 209
}

210
static void exynos_pcie_deassert_core_reset(struct exynos_pcie *ep)
211 212 213
{
	u32 val;

214
	val = exynos_pcie_readl(ep->mem_res->elbi_base, PCIE_CORE_RESET);
215
	val |= PCIE_CORE_RESET_ENABLE;
216

217 218 219 220 221
	exynos_pcie_writel(ep->mem_res->elbi_base, val, PCIE_CORE_RESET);
	exynos_pcie_writel(ep->mem_res->elbi_base, 1, PCIE_STICKY_RESET);
	exynos_pcie_writel(ep->mem_res->elbi_base, 1, PCIE_NONSTICKY_RESET);
	exynos_pcie_writel(ep->mem_res->elbi_base, 1, PCIE_APP_INIT_RESET);
	exynos_pcie_writel(ep->mem_res->elbi_base, 0, PCIE_APP_INIT_RESET);
222 223
}

224
static void exynos_pcie_assert_reset(struct exynos_pcie *ep)
225
{
226
	struct dw_pcie *pci = ep->pci;
227
	struct device *dev = pci->dev;
228

229 230
	if (ep->reset_gpio >= 0)
		devm_gpio_request_one(dev, ep->reset_gpio,
231 232 233
				GPIOF_OUT_INIT_HIGH, "RESET");
}

234
static int exynos_pcie_establish_link(struct exynos_pcie *ep)
235
{
236
	struct dw_pcie *pci = ep->pci;
237 238
	struct pcie_port *pp = &pci->pp;
	struct device *dev = pci->dev;
239

240
	if (dw_pcie_link_up(pci)) {
241
		dev_err(dev, "Link already up\n");
242 243 244
		return 0;
	}

245
	exynos_pcie_assert_core_reset(ep);
246

247
	phy_reset(ep->phy);
248

249 250 251 252 253
	exynos_pcie_writel(ep->mem_res->elbi_base, 1,
			PCIE_PWR_RESET);

	phy_power_on(ep->phy);
	phy_init(ep->phy);
254

255
	exynos_pcie_deassert_core_reset(ep);
256
	dw_pcie_setup_rc(pp);
257
	exynos_pcie_assert_reset(ep);
258 259

	/* assert LTSSM enable */
260
	exynos_pcie_writel(ep->mem_res->elbi_base, PCIE_ELBI_LTSSM_ENABLE,
261
			  PCIE_APP_LTSSM_ENABLE);
262 263

	/* check if the link is up or not */
264
	if (!dw_pcie_wait_for_link(pci))
265
		return 0;
266

267
	phy_power_off(ep->phy);
268
	return -ETIMEDOUT;
269 270
}

271
static void exynos_pcie_clear_irq_pulse(struct exynos_pcie *ep)
272 273 274
{
	u32 val;

275 276
	val = exynos_pcie_readl(ep->mem_res->elbi_base, PCIE_IRQ_PULSE);
	exynos_pcie_writel(ep->mem_res->elbi_base, val, PCIE_IRQ_PULSE);
277 278
}

279
static void exynos_pcie_enable_irq_pulse(struct exynos_pcie *ep)
280 281 282 283 284
{
	u32 val;

	/* enable INTX interrupt */
	val = IRQ_INTA_ASSERT | IRQ_INTB_ASSERT |
285
		IRQ_INTC_ASSERT | IRQ_INTD_ASSERT;
286
	exynos_pcie_writel(ep->mem_res->elbi_base, val, PCIE_IRQ_EN_PULSE);
287 288 289 290
}

static irqreturn_t exynos_pcie_irq_handler(int irq, void *arg)
{
291
	struct exynos_pcie *ep = arg;
292

293
	exynos_pcie_clear_irq_pulse(ep);
294 295 296
	return IRQ_HANDLED;
}

297
static void exynos_pcie_msi_init(struct exynos_pcie *ep)
J
Jingoo Han 已提交
298
{
299
	struct dw_pcie *pci = ep->pci;
300
	struct pcie_port *pp = &pci->pp;
J
Jingoo Han 已提交
301 302 303 304 305
	u32 val;

	dw_pcie_msi_init(pp);

	/* enable MSI interrupt */
306
	val = exynos_pcie_readl(ep->mem_res->elbi_base, PCIE_IRQ_EN_LEVEL);
J
Jingoo Han 已提交
307
	val |= IRQ_MSI_ENABLE;
308
	exynos_pcie_writel(ep->mem_res->elbi_base, val, PCIE_IRQ_EN_LEVEL);
J
Jingoo Han 已提交
309 310
}

311
static void exynos_pcie_enable_interrupts(struct exynos_pcie *ep)
312
{
313
	exynos_pcie_enable_irq_pulse(ep);
J
Jingoo Han 已提交
314 315

	if (IS_ENABLED(CONFIG_PCI_MSI))
316
		exynos_pcie_msi_init(ep);
317 318
}

319 320
static u32 exynos_pcie_read_dbi(struct dw_pcie *pci, void __iomem *base,
				u32 reg, size_t size)
321
{
322
	struct exynos_pcie *ep = to_exynos_pcie(pci);
323 324
	u32 val;

325
	exynos_pcie_sideband_dbi_r_mode(ep, true);
326
	dw_pcie_read(base + reg, size, &val);
327
	exynos_pcie_sideband_dbi_r_mode(ep, false);
328
	return val;
329 330
}

331 332
static void exynos_pcie_write_dbi(struct dw_pcie *pci, void __iomem *base,
				  u32 reg, size_t size, u32 val)
333
{
334
	struct exynos_pcie *ep = to_exynos_pcie(pci);
335

336
	exynos_pcie_sideband_dbi_w_mode(ep, true);
337
	dw_pcie_write(base + reg, size, val);
338
	exynos_pcie_sideband_dbi_w_mode(ep, false);
339 340 341 342 343
}

static int exynos_pcie_rd_own_conf(struct pcie_port *pp, int where, int size,
				u32 *val)
{
344
	struct dw_pcie *pci = to_dw_pcie_from_pp(pp);
345
	struct exynos_pcie *ep = to_exynos_pcie(pci);
346 347
	int ret;

348
	exynos_pcie_sideband_dbi_r_mode(ep, true);
349
	ret = dw_pcie_read(pci->dbi_base + where, size, val);
350
	exynos_pcie_sideband_dbi_r_mode(ep, false);
351 352 353 354 355 356
	return ret;
}

static int exynos_pcie_wr_own_conf(struct pcie_port *pp, int where, int size,
				u32 val)
{
357
	struct dw_pcie *pci = to_dw_pcie_from_pp(pp);
358
	struct exynos_pcie *ep = to_exynos_pcie(pci);
359 360
	int ret;

361
	exynos_pcie_sideband_dbi_w_mode(ep, true);
362
	ret = dw_pcie_write(pci->dbi_base + where, size, val);
363
	exynos_pcie_sideband_dbi_w_mode(ep, false);
364 365 366
	return ret;
}

367
static int exynos_pcie_link_up(struct dw_pcie *pci)
368
{
369
	struct exynos_pcie *ep = to_exynos_pcie(pci);
370
	u32 val;
371

372
	val = exynos_pcie_readl(ep->mem_res->elbi_base, PCIE_ELBI_RDLH_LINKUP);
373 374 375 376 377 378
	if (val == PCIE_ELBI_LTSSM_ENABLE)
		return 1;

	return 0;
}

379
static int exynos_pcie_host_init(struct pcie_port *pp)
380
{
381
	struct dw_pcie *pci = to_dw_pcie_from_pp(pp);
382
	struct exynos_pcie *ep = to_exynos_pcie(pci);
383

384 385
	exynos_pcie_establish_link(ep);
	exynos_pcie_enable_interrupts(ep);
386 387

	return 0;
388 389
}

390
static const struct dw_pcie_host_ops exynos_pcie_host_ops = {
391 392 393 394 395
	.rd_own_conf = exynos_pcie_rd_own_conf,
	.wr_own_conf = exynos_pcie_wr_own_conf,
	.host_init = exynos_pcie_host_init,
};

396
static int __init exynos_add_pcie_port(struct exynos_pcie *ep,
397
				       struct platform_device *pdev)
398
{
399
	struct dw_pcie *pci = ep->pci;
400 401
	struct pcie_port *pp = &pci->pp;
	struct device *dev = &pdev->dev;
402 403 404
	int ret;

	pp->irq = platform_get_irq(pdev, 1);
405
	if (pp->irq < 0) {
406
		dev_err(dev, "failed to get irq\n");
407
		return pp->irq;
408
	}
409
	ret = devm_request_irq(dev, pp->irq, exynos_pcie_irq_handler,
410
				IRQF_SHARED, "exynos-pcie", ep);
411
	if (ret) {
412
		dev_err(dev, "failed to request irq\n");
413 414 415
		return ret;
	}

J
Jingoo Han 已提交
416 417
	if (IS_ENABLED(CONFIG_PCI_MSI)) {
		pp->msi_irq = platform_get_irq(pdev, 0);
418
		if (pp->msi_irq < 0) {
419
			dev_err(dev, "failed to get msi irq\n");
420
			return pp->msi_irq;
J
Jingoo Han 已提交
421 422 423
		}
	}

424 425 426 427 428
	pp->root_bus_nr = -1;
	pp->ops = &exynos_pcie_host_ops;

	ret = dw_pcie_host_init(pp);
	if (ret) {
429
		dev_err(dev, "failed to initialize host\n");
430 431 432 433 434 435
		return ret;
	}

	return 0;
}

436
static const struct dw_pcie_ops dw_pcie_ops = {
437 438
	.read_dbi = exynos_pcie_read_dbi,
	.write_dbi = exynos_pcie_write_dbi,
439 440 441
	.link_up = exynos_pcie_link_up,
};

442 443
static int __init exynos_pcie_probe(struct platform_device *pdev)
{
444
	struct device *dev = &pdev->dev;
445
	struct dw_pcie *pci;
446
	struct exynos_pcie *ep;
447
	struct device_node *np = dev->of_node;
448 449
	int ret;

450 451
	ep = devm_kzalloc(dev, sizeof(*ep), GFP_KERNEL);
	if (!ep)
452 453
		return -ENOMEM;

454 455 456 457 458 459
	pci = devm_kzalloc(dev, sizeof(*pci), GFP_KERNEL);
	if (!pci)
		return -ENOMEM;

	pci->dev = dev;
	pci->ops = &dw_pcie_ops;
460

461
	ep->pci = pci;
462 463
	ep->ops = (const struct exynos_pcie_ops *)
		of_device_get_match_data(dev);
464

465
	ep->reset_gpio = of_get_named_gpio(np, "reset-gpio", 0);
466

467 468 469 470
	ep->phy = devm_of_phy_get(dev, np, NULL);
	if (IS_ERR(ep->phy)) {
		if (PTR_ERR(ep->phy) == -EPROBE_DEFER)
			return PTR_ERR(ep->phy);
471 472 473

		ep->phy = NULL;
	}
474

475 476 477 478
	if (ep->ops && ep->ops->get_mem_resources) {
		ret = ep->ops->get_mem_resources(pdev, ep);
		if (ret)
			return ret;
479
	}
480

481 482
	if (ep->ops && ep->ops->get_clk_resources &&
			ep->ops->init_clk_resources) {
483 484 485 486 487 488
		ret = ep->ops->get_clk_resources(ep);
		if (ret)
			return ret;
		ret = ep->ops->init_clk_resources(ep);
		if (ret)
			return ret;
489
	}
490

491
	platform_set_drvdata(pdev, ep);
492

493
	ret = exynos_add_pcie_port(ep, pdev);
494
	if (ret < 0)
495
		goto fail_probe;
496 497 498

	return 0;

499
fail_probe:
500
	phy_exit(ep->phy);
501

502 503
	if (ep->ops && ep->ops->deinit_clk_resources)
		ep->ops->deinit_clk_resources(ep);
504 505 506 507 508
	return ret;
}

static int __exit exynos_pcie_remove(struct platform_device *pdev)
{
509
	struct exynos_pcie *ep = platform_get_drvdata(pdev);
510

511 512
	if (ep->ops && ep->ops->deinit_clk_resources)
		ep->ops->deinit_clk_resources(ep);
513 514 515 516 517

	return 0;
}

static const struct of_device_id exynos_pcie_of_match[] = {
518 519 520 521
	{
		.compatible = "samsung,exynos5440-pcie",
		.data = &exynos5440_pcie_ops
	},
522 523 524 525 526 527 528
	{},
};

static struct platform_driver exynos_pcie_driver = {
	.remove		= __exit_p(exynos_pcie_remove),
	.driver = {
		.name	= "exynos-pcie",
529
		.of_match_table = exynos_pcie_of_match,
530 531 532 533 534
	},
};

/* Exynos PCIe driver does not allow module unload */

535
static int __init exynos_pcie_init(void)
536 537 538
{
	return platform_driver_probe(&exynos_pcie_driver, exynos_pcie_probe);
}
539
subsys_initcall(exynos_pcie_init);