|
on Regulation |
| By: | Joshua S. Gans |
| Abstract: | This paper shows that income effects create an endogenous barrier to arbitrage, allowing price discrimination to survive costless resale. A monopolist sells an indivisible good to consumers with heterogeneous incomes who can freely resell. When the good is strictly normal, a consumer's reservation price to resell increases as the purchase price decreases—lower prices leave buyers wealthier and raise their valuation of the good. The monopolist exploits this by subsidising low-income consumers to raise their reservation prices to a target that high-income consumers must also pay. The optimal schedule increases dollar-for-dollar with income in the subsidised segment, weakly dominates uniform pricing, and achieves the first-best allocation when the entire market is served. We show the mechanism extends beyond income effects: low substitutability with market alternatives generates large reservation-price responses even when income sensitivity is modest. Sustaining discrimination requires market power at the individual level—consumer-specific quantity limits—not merely aggregate output restrictions. Extensions examine multiple monopolists and endogenous privacy choices. |
| JEL: | D11 D42 L12 |
| Date: | 2026–01 |
| URL: | https://d.repec.org/n?u=RePEc:nbr:nberwo:34669 |
| By: | Bouvard, Matthieu; Jullien, Bruno; Martimort, David |
| Abstract: | We study how the organizational structure of producers affects competition between systems. We model systems as differentiated bundles of complementary components, where components within each system are produced either by a single firms (integration) or by two distinct firms (disintegration). When information about buyers' preferences is symmetric, disintegration typically increases prices and reduces total welfare as the less efficient system gains market share relative to integration. In addition, when buyers' preferences are private information, disintegration magnifies the quality distortions suppliers introduce to screen buyers and further reduces the market share of the more efficient system. Overall, the analysis suggests that technological standards that facilitate the combination of components from different suppliers can have adverse effects. |
| Keywords: | Composite goods; suppliers organization; competition; double; marginalization. |
| JEL: | D82 |
| Date: | 2025–11 |
| URL: | https://d.repec.org/n?u=RePEc:tse:wpaper:131250 |
| By: | Nicolas Astier; Frank A. Wolak |
| Abstract: | Nuclear and intermittent renewables (wind and solar) are generally regarded as the only scalable technologies producing low-carbon electricity. However, the extent to which these technologies can co-exist in a reliable power system depends on whether nuclear units can adjust their operations to renewable output fluctuations. Using hourly data from the French power system, we find that nuclear units are operated quite flexibly, and that the foregone energy production due to “load following” actions (relative to the counterfactual of operating at full capacity during load following events) is currently limited. However, we find that an additional load following event is associated with a slightly higher likelihood of a unit failure. We also find that unit-level minimum output constraints are binding more frequently as system-wide renewable generation increases, especially so for units most exposed to solar generation. In 2024, hours during which available nuclear flexibility was exhausted are associated with non-positive hourly day-ahead prices. |
| JEL: | L94 Q2 Q42 |
| Date: | 2026–01 |
| URL: | https://d.repec.org/n?u=RePEc:nbr:nberwo:34662 |
| By: | Cha, Min-kyeong (Min); Matisoff, Daniel |
| Abstract: | How does electricity consumption behavior change with different energy sources? We seek to understand how consumers change their consumption behaviors when they begin to use renewable electricity via a community solar program. Previous research has found that consumers distinguish the power sources of electricity and even change their consumption behavior. Recent studies have explored changes in consumption associated with utility-run green electricity programs and rooftop solar, finding mixed results; however, studies on community solar programs are lacking. This study explores household-level consumption behavior after adopting solar electricity without panel installation. We use household-level monthly electricity consumption data from a large electric co-op in Georgia, U.S., ranging from 2015 to 2023, for both community solar subscribers and non-subscribers. We use staggered difference-in-differences, along with matching, to compare consumption changes before and after the subscription. Findings reveal that the consumption does not change after subscription, but subscribers' monthly bills increase by about 3–4 %, indicating they pay more to make the grid greener. This study will broaden the understanding of electricity sources and consumer behavior by adding the analysis of prevalent but under-studied community solar electricity programs in the U.S. Southeast context. It will help utility planners understand the changing demand as a result of renewable energy adoption. |
| Keywords: | community solar; electricity consumption behavior; equity in renewable energy; solar electricity |
| JEL: | J1 |
| Date: | 2026–01–31 |
| URL: | https://d.repec.org/n?u=RePEc:ehl:lserod:130888 |
| By: | Ahmed S. Alahmed; Audun Botterud; Saurabh Amin; Ali T. Al-Awami |
| Abstract: | We develop a mathematical framework for the optimal dispatch of flexible water desalination plants (WDPs) as hybrid generator-load resources. WDPs integrate thermal generation, membrane-based controllable loads, and renewable energy sources, offering unique operational flexibility for power system operations. They can simultaneously participate in two markets: selling desalinated water to a water utility, and bidirectionally transacting electricity with the grid based on their net electricity demand. We formulate the dispatch decision problem of a profit-maximizing WDP, capturing operational, technological, and market-based coupling between water and electricity flows. The threshold-based structure we derive provides computationally tractable coordination suitable for large-scale deployment, offering operational insights into how thermal generation and membrane-based loads complementarily provide continuous bidirectional flexibility. The thresholds are analytically characterized in closed form as explicit functions of technology and tariff parameters. We examine how small changes in the exogenous tariff and technology parameters affect the WDP's profit. Extensive simulations illustrate the optimal WDP's operation, profit, and water-electricity exchange, demonstrating significant improvements relative to benchmark algorithms. |
| Date: | 2026–01 |
| URL: | https://d.repec.org/n?u=RePEc:arx:papers:2601.02243 |
| By: | Hagerty, Nick; Zucker, Ariel |
| Abstract: | Groundwater is a vital input to agricultural production worldwide, but a widespread lack of effective regulation leads to overconsumption and depletion. We evaluate a program of price incentives for voluntary groundwater conservation among smallholder farmers in Gujarat, India, where water (and the electricity used to pump it) is scarce and unregulated. To do so, we install meters and offer payments for reduced groundwater pumping in a randomized controlled trial. Price incentives work: The program reduced hours of irrigation by 24 percent. Most of the conservation is achieved by a price within a realistic policy range; doubling the price has little additional effect. Payment expenditures per unit energy conserved are near the cost of expanding electricity supply, suggesting that payments for groundwater conservation may be a cost-effective policy tool where pricing is politically infeasible. |
| Keywords: | Agricultural Finance |
| Date: | 2025 |
| URL: | https://d.repec.org/n?u=RePEc:ags:aaea25:361141 |
| By: | Millend Roy; Agostino Capponi; Vladimir Pyltsov; Yinbo Hu; Vijay Modi |
| Abstract: | Electricity markets are under increasing pressure to maintain reliability amidst rising renewable penetration, demand variability, and occasional price shocks. Traditional capacity market designs often fall short in addressing this by relying on expected-value metrics of energy unserved, which overlook risk exposure in such systems. In this work, we present CapOptix, a capacity pricing framework that interprets capacity commitments as reliability options, i.e., financial derivatives of wholesale electricity prices. CapOptix characterizes the capacity premia charged by accounting for structural price shifts modeled by the Markov Regime Switching Process. We apply the framework to historical price data from multiple electricity markets and compare the resulting premium ranges with existing capacity remuneration mechanisms. |
| Date: | 2025–12 |
| URL: | https://d.repec.org/n?u=RePEc:arx:papers:2512.12871 |
| By: | Bruno Deffains (CRED - Université-Paris-Panthéon-Assas); Claudio Ceccarelli (ISTAT, Italy); Antonio Cappiello (Consiglio Nazionale del Notariato) |
| Abstract: | The exploration of OECD PMR and World Bank data, allowed to understand the impact of regulation on the notarial activity as well as the notarial performances (property transfer and company incorporation) compared to countries not adopting notaries. The last edition of the PMR indicator, as in the past OECD report, shows a trend of negative correlation between level of regulation and cost paid by the consumer for the property transfer. A higher level of regulation therefore tendo to produce better results for consumers precisely because the notary is part of the administration of justice and his services represent a "public good". As regards the comparison of scores between countries that adopt the notary and others that adopt other systems, the analysis of the B-Ready data shows better performances of the countries with notaries both for real estate transfers and for company incorporation. These findings invite a broader reconsideration of how regulation is conceptualized and measured in the context of legal services. From an economic standpoint, the civil law notariat is not a regulatory anomaly, but a functionally efficient institutional design that internalizes market failures, such as information asymmetry, contractual incompleteness, and enforcement risk, at the very heart of transactional life. The data presented throughout the paper demonstrate that regulation does not necessarily entail inefficiency. On the contrary, well-calibrated regulatory frameworks—such as those governing notaries—may reduce total transaction costs by providing legal certainty ex ante, thereby lowering litigation, renegotiation, and enforcement costs ex post. Therefore, this paper calls for a redefinition of what constitutes “efficient regulation” in the legal sector. It advocates for evaluation tools that take into account not only market openness but also the institutional role of legal professionals in delivering public value through trust, risk reduction, and systemic coherence. Such a shift is not merely technical; it is foundational for ensuring that regulatory reform enhances both market performance and legal robustness. |
| Keywords: | professional services, competition, OECD PMR indicators, notaries, law & economics |
| JEL: | K15 K21 K25 L4 L41 L43 L8 L84 L85 L86 |
| Date: | 2025–12 |
| URL: | https://d.repec.org/n?u=RePEc:afd:wpaper:2507 |
| By: | Uz, Dilek; Adom, Enoch; Gordon, Beatrice |
| Keywords: | Resource/Energy Economics and Policy |
| Date: | 2025 |
| URL: | https://d.repec.org/n?u=RePEc:ags:aaea25:361220 |
| By: | , Gaurav; Ayarekar, Sachin; Kadam, Suresh |
| Abstract: | This white paper presents a clause-level comparative legal and regulatory analysis of India’s Digital Personal Data Protection Act (DPDP Act, 2023) and the European Union’s General Data Protection Regulation (GDPR), with specific emphasis on implications for FinTech governance and compliance automation. As India transitions toward a unified personal data protection regime, FinTech firms operating in high-velocity, data-intensive environments face significant challenges related to consent management, purpose limitation, data subject rights, cross-border data transfers, breach notification, and accountability obligations. Using a doctrinal legal research approach combined with comparative clause mapping, this study systematically evaluates areas of convergence and divergence between the DPDP Act and the GDPR across key compliance domains. Building on these findings, the paper proposes a RegTech-enabled audit automation framework designed to translate legal requirements into machine-readable compliance controls, enabling continuous monitoring, risk classification, and governance reporting for FinTech institutions. The white paper contributes to emerging discussions on data protection governance by offering a practical compliance lens for regulators, FinTech firms, auditors, and RegTech solution designers, while also serving as a foundational working paper for future empirical and journal-based research. |
| Date: | 2026–01–12 |
| URL: | https://d.repec.org/n?u=RePEc:osf:lawarc:r7ydq_v1 |
| By: | Lucidi, Stefano; Niedick, Lars; Sörries, Bernd |
| Abstract: | Im Zuge der Verlängerung der Frequenznutzungsrechte verpflichtete die Bundesnetzagentur die etablierten Mobilfunknetzbetreiber, bis zum Jahr 2030 eine bundesweite Flächenabdeckung von 99, 5% mit Mobilfunkdiensten sicherzustellen. Je umfassender solche Versorgungauflagen sind, desto weniger können sich die Mobilfunknetzbetreiber durch unterschiedliche räumliche Versorgungsstrategien im Markt differenzieren. Insoweit könnten solche Versorgungsauflagen im Widerspruch zum Infrastrukturwettbewerb, ein Leitbild des europäischen und nationalen Rechtsrahmens, stehen. Im ersten Teil der vorliegenden Studie wird deshalb das mögliche Spannungsverhältnis von Versorgungsauflagen und Infrastrukturwettbewerb analysiert. Da modernste Mobilfunktechnologien die technischen Vorgaben der Telekommunikations-Mindestversorgungsverordnung (TKMV) erfüllen, besteht das Interesse, außerhalb von Messungen vor Ort festzustellen, bei welchen Adressen die in der TKMV festgelegten Datenübertragungsraten im Up- und Downlink mit hoher Wahrscheinlichkeit vorliegen. Die Studie greift diese Diskussion auf und prüft netztechnische Parameter und vorhandene Daten, die für eine Prognose der Versorgungsqualität verwendet werden könnten. Die Studie zeigt, dass der deutsche Mobilfunkmarkt durch einen Infrastrukturwettbewerb geprägt ist. Gerade für Mobilfunknetzbetreiber, die in ländlichen Regionen einen unterdurchschnittlichen Marktanteil haben, stellt die Flächenversorgungsauflage einen Anreiz dar, den Wettbewerb in diesen Regionen zu verstärken. Netzqualitätsauswertungen zeigen einen Trend abnehmender Qualitätsabstände zwischen den Mobilfunknetzen, was als Indikator für intensiven Wettbewerb und Modernisierungsprozesse interpretiert werden kann. Insoweit ist festzustellen, dass das Ziel eines Infrastrukturwettbewerbs und Versorgungsauflagen kein Gegensatz sein müssen. Im Hinblick auf die TKMV zeigt sich, dass der Mobilfunk grundsätzlich einen Beitrag zur Grundversorgung leisten kann. Die tatsächliche Eignung ist jedoch von den verfügbaren Kapazitäten, der Nutzerzahl pro Funkzelle sowie potenziellen Priorisierungsinstrumenten, wie etwa Network Slicing, abhängig. Die derzeit verfügbare Datengrundlage über Qualitätsparameter in den Mobilfunknetzen ist jedoch weder hinreichend harmonisiert noch methodisch einheitlich. Dies erschwert eine verlässliche Einschätzung der Leistungsfähigkeit des Mobilfunks für das Recht auf Versorgung mit Telekommunikationsdiensten (RaVT). Für eine belastbare Prognose wäre daher ein standardisiertes, interoperables Mess- und Datenkonzept erforderlich, das netzseitige Parameter und nutzungsbasierte Messungen zusammenführt. Darüber hinaus könnte die Entwicklung eines Machine-Learning-Tools zur Prognose der Mobilfunkqualität hilfreich sein. |
| Abstract: | As part of the extension of frequency usage rights, the Federal Network Agency required established mobile network operators to ensure nationwide coverage of 99.5% with mobile services by 2030. The more comprehensive such coverage obligations are, the less mobile network operators can differentiate themselves in the market through different geographical coverage strategies. In this regard, such coverage obligations could conflict with infrastructure competition, a guiding principle of the European and national legal framework. The first part of this study therefore analyzes the potential conflict between coverage obligations and infrastructure competition. Since advanced mobile communications technologies meet the technical requirements of the Telecommunications Minimum Supply Ordinance (TKMV), there is interest in using forecasts to determine at which addresses the data transmission rates specified in the TKMV are highly likely to be available in the uplink and downlink, beyond on-site measurements. The study takes up this discussion and examines network parameters and existing data that could be used to forecast service and coverage quality. The study shows that the German mobile communications market is characterized by infrastructure competition. For mobile network operators with a below-average market share in rural areas, the coverage obligation provides an incentive to intensify competition in these regions. Network quality evaluations show a trend toward decreasing quality differences between mobile networks, which can be interpreted as an indicator of intense competition and modernization processes. In this respect, it can be said that the objectives of infrastructure competition and coverage obligations do not have to be in conflict with each other. With regard to the TKMV, the mobile communications network can contribute to ensure basic service provisions. However, its actual suitability depends on available capacities, the number of users per cell, and potential prioritization tools such as network slicing. At present, the available data on mobile network quality parameters is neither sufficiently harmonized nor methodologically consistent. This makes it difficult to reliably assess the performance of mobile communications in terms of fulfilling the right to supply with telecommunications services (RaVT). A reliable forecast would therefore require a standardized and interoperable measurement and data concept that combines network parameters and usage-based measurements. In addition, the development of a machine learning tool to forecast mobile communications quality could further support such analyses. |
| Date: | 2025 |
| URL: | https://d.repec.org/n?u=RePEc:zbw:wikdps:334502 |
| By: | Zuloaga, Gonzalo; Plückebaum, Thomas; Kulenkampff, Gabriele; Ockenfels, Martin |
| Abstract: | Mobilfunknetze müssen sich immer wieder veränderten Nutzungsbedürfnissen anpassen, da sie mit knappen Frequenzressourcen arbeiten. Im Vordergrund steht dabei primär das ständig steigende Datenvolumen, dann aber auch die sich ändernden Qualitätsanforderungen, insbesondere in Bezug auf Signallaufzeiten und Zuverlässigkeit der Übertragung. Diese werden wesentlich in den Funkzugangsnetzen (RAN) bestimmt, die ca. 50 % des Energieverbrauchs der Mobilfunknetze benötigen. Daher konzentriert sich diese Studie auf dieses Netzsegment. Die Anpassung der Mobilfunknetze erfolgt einerseits durch den Einsatz neuer Funkschnittstellen, neuer und leistungsfähigerer Codierungsverfahren, neuer Antennentechniken und zusätzlicher neuer Frequenzbänder in höheren Frequenzlagen. Höhere Frequenzlagen (Trägerfrequenzen) haben jedoch andere, i.d.R. beschränktere Ausbreitungscharakteristika bzgl. Reichweite, Störungsempfindlichkeit und Umgehung/Penetration von Sichtbehinderungen, wie z. B. Geländestrukturen, Bäume oder Gebäude. Die neuen Technologien und die neuen Frequenzressourcen bieten erhebliche Bandbreitenverbesserungen und übertragen den Verkehr effizienter. Sie bieten durch die neuen Codierungen und Antennentechniken deutlich mehr Kapazität zur Datenübertragung, aber natürlich haben sie auch einen anderen Energiebedarf. Ein Kernproblem in Mobilfunknetzen ist die Grundlast im RAN, d.h. die permanente Sende- und Empfangsbereitschaft, wegen der das RAN in Niederlastzeiten nicht vollständig abgeschaltet werden kann. Hier gab es mit der 5G Funkschnittstelle deutliche Fortschritte. Die Studie beschreibt auf der Basis von Erfahrungen aus der Modellierung des Energieverbrauches in bestehenden Mobilfunknetzen die Zusammenhänge von Nutzerbedarfsveränderungen und Energieverbrauch, unter Einbeziehung neuer, energieeffizienterer Technologien und neuer Frequenzen, bis hin zur Wirkung von Funkzellverdichtungen. Dabei wird gezeigt, dass das Datenvolumen nur ein eingeschränkt geeigneter Proxy für die Prognose des Energieverbrauchs von Funkzugangsnetzen ist. Im Ergebnis bleibt die Perspektive, dass der Energieverbrauch der Mobilfunknetze angesichts der stark wachsenden Nachfrage und trotz einer deutlichen Steigerung der Energieeffizienz der Netztechnologien, sichtbar ansteigen wird. Dem kann weiterhin begegnet werden, indem ergänzend zu den Mobilfunknetzen, insbesondere in Gebäuden, das Zusammenspiel von Smartphones durch Mobile-Offloading über Wi-Fi in Glasfaserfestnetze weiter ausgebaut wird und so die Mobilfunknetze entlastet werden. |
| Abstract: | Mobile telecommunication networks must be adapted to changing user demand in a frequent manner, because they rely on scarce frequency resources. In the fore is the permanently increasing data volume per user, but next comes the increasing quality demand, especially regarding the latency and reliability of the transmission. All will be dominantly determined by the Radio Access Networks (RAN). The RAN consumes approximately 50 % of the power consumption of the mobile networks. Thus, this study concentrates on this important network segment. The adaption on the increasing demand will be taken care off by introducing new radio interfaces with new and more powerful coding methods, new antenna techniques, additional frequency blocks in higher frequency spaces. Higher frequency spaces (bearer frequencies) have different typically more restricted emission characteristics regarding reach, noise susceptibility and surrounding/ penetration of walls, line of sight interruptions, by landscape/ surface, trees/ forests or buildings. The new technologies and frequency resources offer significant bandwidth improvements and transmit traffic more efficiently. By new coding and new antenna techniques they offer significantly higher data transmission capacity. But of course, they have a different power consumption demand. A mobile radio network's core problem is the basic power demand for being always on to send or receive transmissions, thus the RAN cannot be switched off completely. 5G new radio improves this situation by allowing to switch-off frequency blocks completely, if at least some blocks remain ready to operate for sensing and activating on demand. Based on experience on modelling energy demand in existing mobile networks the study describes the interdependencies of changing user demand and power demand, taking into account new and more energy efficient technologies and new frequency blocks up to radio cell densification This shows that data volume is only a limited proxy for forecasting the energy consumption of wireless access networks. As a result, the view remains that the total power consumption of mobile networks will increase significantly due to strong demand, which exceeds the substantial increase in the energy efficiency of telecommunications network elements. One can counteract these effects by improving the inhome/indoor interaction of smartphones and Wi-Fi access points for mobile off-loading, thus relaxing the mobile network load. |
| Keywords: | Telefonnetz, Energieeinsparung, Telekommunikationsnetz, Konsumentenverhalten, Telekommunikationspreis |
| Date: | 2025 |
| URL: | https://d.repec.org/n?u=RePEc:zbw:wikdps:334507 |
| By: | Zhang, Tieyue; Iovanna, Rich; Kling, Catherine |
| Keywords: | Environmental Economics and Policy |
| Date: | 2025 |
| URL: | https://d.repec.org/n?u=RePEc:ags:aaea25:360785 |
| By: | Alibhai, Salman; Breza, Emily; Kanz, Martin; Strobbe, Francesco |
| Abstract: | This paper examines the rise of fintech lending in Indonesia, using a dataset of more than 139, 000 individual credit records representative of the full spectrum of consumer loans in the country. The analysis reveals that fintech lending has become deeply embedded in Indonesia’s financial landscape, with more than 40 percent of borrowers holding at least one fintech loan at the end of the sample period. While digital lenders have expanded financial inclusion by reaching significant numbers of previously unbanked households, they remain limited in their geographical reach, primarily finance consumption, and account for only a small share of total consumer credit. Over time, a substantial share of borrowers transition from high-interest fintech loans to more affordable conventional credit. However, this expansion of access brings new challenges: default rates among borrowers who obtain their first loan from a digital lender are 5 to 7 percentage points higher than among borrowers who start with non-fintech loans, and elevated default risks persist even after borrowers graduate to lower-interest rate conventional credit. The paper concludes by assessing the effects of recent regulatory reforms --such as interest rate caps and harmonized reporting standards for digital and conventional loans-- and offers policy recommendations to maximize the benefits of digital financial inclusion while safeguarding credit market stability and financial consumer protection. |
| Date: | 2026–01–21 |
| URL: | https://d.repec.org/n?u=RePEc:wbk:wbrwps:11300 |
| By: | Teichmann, Fabian |
| Abstract: | Platform governance is increasingly shaped by regulatory mandates that embed cybersecurity principles into the design and operation of digital services. This study examines how the European Union’s NIS2 Directive and proposed Cyber Resilience Act (CRA) institutionalize ‘cybersecurity-by-design’ within platform ecosystems, and how this shift is understood as a social practice. It outlines the key requirements these frameworks impose on online platforms, from risk management processes and secure development obligations to lifecycle vulnerability handling, and compares them with international approaches such as the US Executive Order 14028 and ISO 27001 standards. Drawing on sociological perspectives, including actor-network theory, Bourdieu’s theory of practice, and Science and Technology Studies, the study argues that cybersecurity-by-design constitutes not merely a technical mandate but a practice shaped by organizational cultures, power relations, and the circulation of knowledge among stakeholders. This argument is illustrated through case studies of the security challenges and compliance strategies of major platforms, emphasizing how law, technology, and social dynamics intersect. The discussion explores the opportunities and tensions involved in regulating platform security by design, including balancing control and trust, considering global governance implications, and addressing the influence of commercial incentives as described by surveillance capitalism. The study indicates that effective cybersecurity-by-design requires not only legal enforcement but also the active engagement of practitioner communities and users, making it a sociotechnical project embedded in a broader societal context. |
| Keywords: | actor-network theory; Cyber Resilience Act; Cybersecurity-by-design; NIS2 Directive; platform governance; surveillance capitalism |
| JEL: | R14 J01 |
| Date: | 2026–01–06 |
| URL: | https://d.repec.org/n?u=RePEc:ehl:lserod:130856 |
| By: | Rielli, L. E.; Wang, Jodi Ann |
| Abstract: | Ensuring that the energy transition actively accounts for stakeholders' concerns is critical to both addressing and redressing (in)justices. From an energy justice perspective, key aspects – including distributive, procedural, recognitional, and restorative justice – must be duly inscribed across the lifecycles of new renewable energy infrastructures. This article aims to identify the salient stakeholder concerns and propose corresponding policy actions that embed justice principles in the energy transition. It particularly emphasizes on the implications for affected stakeholders groups, namely workers, suppliers, communities, and consumers. Drawing on evidence from ethnographic field observations and semi-structured interviews (n = 47) in solar photovoltaic energy projects in Brazil and Portugal, this Perspective article proposes a framework of structural and practical policy actions that centre the affected stakeholders' concerns, which can be adapted across global geographies. This work contributes to the just energy transitions global agenda by providing practical recommendations for integrating justice into energy policies. |
| Keywords: | energy justice; energy transition; policy; Policy; Energy justice; Energy transition |
| JEL: | R14 J01 |
| Date: | 2026–01–31 |
| URL: | https://d.repec.org/n?u=RePEc:ehl:lserod:130918 |
| By: | Ou, Yunbei; Bailey, Nick (University of Glasgow); McArthur, David Philip; Zhao, Qunshan |
| Abstract: | An extensive literature shows a positive relationship between housing energy efficiency and house prices. However, the methodological issue of omitted variable bias (OVB) has weakened claims of a causal effect. It is also unclear whether any willingness-to-pay (WTP) for housing energy efficiency reflects a concern with energy costs or a more symbolic ‘green’ consumption. The recent exogenous shock of the global ‘energy crisis’ in 2022 offers a novel opportunity to examine both. If WTP changes significantly after the energy crisis, it effectively removes OVB issues and strengthens causal interpretations. It could also indicate that WTP for energy efficiency is driven (at least in part) by energy cost savings. Using over 170, 000 listings for second-hand house sales in Greater Manchester, UK (2017-24), we model WTP for energy efficiency before and after the dramatic rise in energy prices using multilevel hedonic regressions. We find that WTP for more energy efficient homes increased after the energy crisis, largely because the ‘brown discount’ (penalty) for more inefficient homes increased. These results confirm the causal interpretation of the relationship between house prices and energy efficiency and indicate that consumers are motivated at least in part by energy cost savings. These findings suggest that policymakers could promote housing energy efficiency by focussing on financial benefits in policy design and advertisements, as well as support financially vulnerable households to ensure an equal sustainable housing transition process. |
| Date: | 2026–01–07 |
| URL: | https://d.repec.org/n?u=RePEc:osf:socarx:m5d7n_v2 |
| By: | Shengyu Cao; Ming Hu |
| Abstract: | We study how delegating pricing to large language models (LLMs) can facilitate collusion in a duopoly when both sellers rely on the same pre-trained model. The LLM is characterized by (i) a propensity parameter capturing its internal bias toward high-price recommendations and (ii) an output-fidelity parameter measuring how tightly outputs track that bias; the propensity evolves through retraining. We show that configuring LLMs for robustness and reproducibility can induce collusion via a phase transition: there exists a critical output-fidelity threshold that pins down long-run behavior. Below it, competitive pricing is the unique long-run outcome. Above it, the system is bistable, with competitive and collusive pricing both locally stable and the realized outcome determined by the model's initial preference. The collusive regime resembles tacit collusion: prices are elevated on average, yet occasional low-price recommendations provide plausible deniability. With perfect fidelity, full collusion emerges from any interior initial condition. For finite training batches of size $b$, infrequent retraining (driven by computational costs) further amplifies collusion: conditional on starting in the collusive basin, the probability of collusion approaches one as $b$ grows, since larger batches dampen stochastic fluctuations that might otherwise tip the system toward competition. The indeterminacy region shrinks at rate $O(1/\sqrt{b})$. |
| Date: | 2026–01 |
| URL: | https://d.repec.org/n?u=RePEc:arx:papers:2601.01279 |
| By: | Sarkar, Sampriti; Lupi, Frank |
| Keywords: | Demand and Price Analysis |
| Date: | 2025 |
| URL: | https://d.repec.org/n?u=RePEc:ags:aaea25:361202 |
| By: | Sharma, Manoj; Villoria, Nelson B. |
| Abstract: | The European Union Deforestation Regulation (EUDR) seeks to reduce deforestation in tropical countries by restricting imports of soy products. The main concern is that trade restrictions can shift deforestation-embodied trade to unregulated markets. To shed light on this issue, we employ a standard gravity model focused on the soy sector, treating the EUDR compliance costs as trade costs for exports to the EU. Our findings reveal that the stricter trade restrictions on tropical soy producers lead to a significant reallocation of trade flows toward China and other Asian countries. If tropical countries do not comply with the EUDR, the EU consumer prices rise even more, while tropical countries see minimal terms-of-trade losses. Our analysis indicates that the EUDR is likely to be ineffective in reducing deforestation directly linked to soy production. |
| Keywords: | International Development |
| Date: | 2025 |
| URL: | https://d.repec.org/n?u=RePEc:ags:aaea25:361018 |
| By: | Zheng, Yanan; Goodhue, Rachael |
| Keywords: | Environmental Economics and Policy |
| Date: | 2025 |
| URL: | https://d.repec.org/n?u=RePEc:ags:aaea25:360789 |
| By: | Eren Kurshan; Tucker Balch; David Byrd |
| Abstract: | Generative and agentic artificial intelligence is entering financial markets faster than existing governance can adapt. Current model-risk frameworks assume static, well-specified algorithms and one-time validations; large language models and multi-agent trading systems violate those assumptions by learning continuously, exchanging latent signals, and exhibiting emergent behavior. Drawing on complex adaptive systems theory, we model these technologies as decentralized ensembles whose risks propagate along multiple time-scales. We then propose a modular governance architecture. The framework decomposes oversight into four layers of "regulatory blocks": (i) self-regulation modules embedded beside each model, (ii) firm-level governance blocks that aggregate local telemetry and enforce policy, (iii) regulator-hosted agents that monitor sector-wide indicators for collusive or destabilizing patterns, and (iv) independent audit blocks that supply third-party assurance. Eight design strategies enable the blocks to evolve as fast as the models they police. A case study on emergent spoofing in multi-agent trading shows how the layered controls quarantine harmful behavior in real time while preserving innovation. The architecture remains compatible with today's model-risk rules yet closes critical observability and control gaps, providing a practical path toward resilient, adaptive AI governance in financial systems. |
| Date: | 2025–12 |
| URL: | https://d.repec.org/n?u=RePEc:arx:papers:2512.11933 |
| By: | Thiele, Sonja |
| Abstract: | Das Ziel des vorliegenden Diskussionsbeitrags ist es, quantitative Einschätzungen zur zukünftigen Briefmenge bis zum Jahr 2035 zu entwickeln. Die Briefmengenprognose soll dazu dienen, die Auswirkungen auf die zukünftige Erbringung des Universaldienstes und mögliche Anpassungen der Universaldienstanforderungen zu diskutieren. Methodisch wurde dazu eine Auswertung bestehender Prognosestudien und der akademischen Literatur durchgeführt. Basierend auf den Auswertungen der Literatur wurde ein parametrisches, Excel-basiertes Prognosemodell für den deutschen Briefmarkt entwickelt, das als Einflüsse konjunkturelle Einflüsse, Preiseffekte sowie digitale Substitution berücksichtigt. Die Modellannahmen wurden mithilfe von Gesprächen mit Marktteilnehmern und der Bundesnetzagentur verifiziert. Das Modell berechnet die zukünftige Briefmenge bis zum Jahr 2035 ausgehend von der Menge eines Basisjahres und den gewählten Parametern für die Veränderung und die Stärke der Einflussfaktoren. Es entwickelt zwei mögliche Zukunftspfade als Ober- und Untergrenze der zukünftigen Briefmengenentwicklung auf Basis zweier Szenarien. Im Ergebnis können im "schnellen" Szenario die Briefmengen um ca. 70% im Jahr 2035 im Vergleich zu 2023 sinken, im "langsamen" Szenario um ca. 53%. Die Verteilung der prognostizierten Mengen auf die Bundesländer verdeutlicht die ungleiche Verteilung der Briefmengen in der Fläche sowie eine starke Spreizung der pro Quadratkilometer zugestellten wöchentlichen Briefmenge zwischen den Stadt- und Flächenstaaten. Wir erwarten je nach Szenario für das Jahr 2030, dass auf einer Fläche von 88% bis 91% des Bundesgebiets (sowohl ländliche als auch teilweise städtische Räume) weniger Briefe pro Quadratkilometer als im Bundesdurchschnitt des Jahres 2023 zugestellt werden. Sofern die zukünftigen Universaldienstanforderungen die aktuellen gesetzlichen Laufzeitvorgaben von E+3/E+4 konstant halten sollen, müsste die wöchentliche Zustellhäufigkeit im Jahr 2030 für konstante Durchschnittskosten pro Sendung auf 3, 3 Tage (langsames Szenario) bzw. 2, 6 Tage (schnelles Szenario) sinken - unter der Annahme, dass es keine Verbundzustellung gibt, und nur inländische Briefe zugestellt werden. Unter diesen vereinfachten Annahmen müsste im Jahr 2035 die wöchentliche Zustellhäufigkeit für konstante Durchschnittskosten pro Stück weiter sinken (auf 2, 3 bzw. 1, 5 Tage). Dann wären die gesetzlich vorgegebenen Laufzeitzielen E+3/E+4 nicht realisierbar. Um die Laufzeiten dennoch konstant halten zu können, müssten in dem Fall die Briefpreise real steigen. In der Praxis stellt die Deutsche Post inländische Briefe mit Paketen, Warensendungen und internationalen Briefen im Verbund zu. Dadurch sowie durch die Einführung der A/B-Zustellung kann es der Deutschen Post gelingen, den Anstieg der durchschnittlichen Stückkosten zu verringern. Aus unternehmerischer Perspektive würde sich folglich auch der Druck reduzieren, die Laufzeitvorgaben anzupassen. |
| Abstract: | The aim of this discussion paper is to develop quantitative estimates of future letter volumes up to 2035. The letter volume forecast will serve to discuss the impact on the future provision of universal service and possible adjustments to universal service requirements. Methodologically, a comprehensive desk research of existing forecast studies and academic literature was carried out. Based on the evaluation of the literature, a parametric, Excel-based forecast model for the German letter market was developed, which takes into account economic developments, price effects and digital substitution. The model assumptions were verified through discussions with stakeholders. The model calculates future letter volumes up to 2035 based on the volume of a base year and the parameters for change and their elasticities. It develops two possible future paths as upper and lower limits for future letter volume development based on two scenarios. As a result, in the 'fast' scenario, letter volumes could fall by approximately 70% in 2035 compared to 2023, and in the 'slow' scenario by approximately 53%. The distribution of the forecast volumes across the German Federal states highlights the uneven distribution of letter volumes across the country and a wide variation in the weekly letter volume delivered per square kilometre between urban and rural areas. Depending on the scenario for 2030, we expect that in 88% to 91% of the Federal Territory (including rural and partly urban areas), the number of letters delivered per square kilometre will be lower than the Federal average in 2023. If future universal service requirements are to maintain the current transit time objectives of D+3/D+4, the weekly delivery frequency in 2030 would have to decrease to 3.3 days (slow scenario) or 2.6 days (fast scenario) in 2030 for constant average costs per item - assuming that there is no joint delivery and only domestic letters are delivered. Under these simplified assumptions, the weekly delivery frequency would have to decrease further in 2035 (to 2.3 and 1.5 days, respectively) to maintain constant average costs per item. In that case, the transit time objectives of D+3/D+4 would no longer be feasible. In order to maintain constant transit times, letter prices would have to increase in real terms. In practice, Deutsche Post delivers domestic letters jointly with parcels, goods shipments and international letters. This, together with the introduction of A/B delivery, enables Deutsche Post to limit the increase in average unit costs. From a business perspective, this would also reduce the pressure to adjust transit time targets. |
| Date: | 2025 |
| URL: | https://d.repec.org/n?u=RePEc:zbw:wikdps:334503 |
| By: | Ockenfels, Martin; Kulenkampff, Gabriele; Eltges, Fabian; Kiesewetter, Wolfgang; Sabeva, Desislava; Zoz, Konrad |
| Abstract: | Diese Studie untersucht, wie sich die Backhaul-Kosten im Glasfaserausbau in Abhängigkeit vom räumlichen Footprint unterschiedlicher Netzbetreibertypen unterscheiden. Ausgangspunkt ist die Annahme, dass neben der Besiedlungsdichte auch die Anzahl, Größe und räumliche Verteilung der Anschlussbereiche maßgeblich die Backhaul-Kosten pro Anschluss beeinflussen. Vor dem Hintergrund heterogener Siedlungsstrukturen in Deutschland sind diese Kostenunterschiede insbesondere für den wettbewerblichen Glasfaserausbau von Bedeutung. Die Analyse basiert auf einer modellgestützten Bottom-up-Methodik, mit der relative Backhaul-Kosten für generische Netzbetreibertypen berechnet werden. Diese Typen repräsentieren unterschiedliche Ausbaukonstellationen und Footprints, die anhand öffentlich verfügbarer Daten zu Postleitzahlregionen approximiert werden. Ergänzend werden reale, adaptierte Netzbetreiber-Footprints in das Typenschema eingeordnet. Die Modellierung beschränkt sich auf die Backhaul-Kosten pro Anschluss und berücksichtigt weder vor- noch nachgelagerte Wertschöpfungsstufen. Die Ergebnisse werden als relative Kostenvergleiche ausgewiesen und haben aufgrund der exemplarischen Szenarien indikativen Charakter. Zusätzlich wurden qualitative Interviews mit Netzbetreibern geführt, um die Modellergebnisse einzuordnen und zu plausibilisieren. Die Ergebnisse zeigen deutliche Kostenunterschiede im Backhaul in Abhängigkeit vom Footprint. Unter der Annahme monopolistischer Versorgung weisen große Netzbetreiber mit zusammenhängenden, dicht besiedelten Versorgungsgebieten signifikante Kostenvorteile pro Anschluss gegenüber kleineren oder räumlich fragmentierten Netzbetreibern auf. Urbane Regionen sind dabei grundsätzlich kostengünstiger als ländliche. Dieses intuitive Muster verliert jedoch an Klarheit, sobald reale Rahmenbedingungen wie tatsächliche Glasfaserverfügbarkeit, aktive Anschlüsse und Kontrahierungsquoten berücksichtigt werden. Insbesondere in urbanen Gebieten können Infrastrukturwettbewerb und geringe Auslastung zu vergleichsweise hohen Backhaul-Kosten pro Anschluss führen. Die ergänzend durchgeführten Interviews verdeutlichen die Grenzen der Modellierung. Regionale Kostenunterschiede, projektbezogene Investitionsentscheidungen sowie die Verfügbarkeit von Wholesale-Backhaul-Angeboten werden im Modell nur unzureichend abgebildet. In der Praxis tragen insbesondere vorleistungsbasierte Infrastrukturen Dritter - soweit verfügbar - zur Kostensenkung und damit Replizierbarkeit bei, während diese Optionen in ländlichen Regionen häufig fehlen. Insgesamt zeigen die Ergebnisse, dass Backhaul-Kosten einen relevanten Einfluss auf die Wirtschaftlichkeit des Glasfaserausbaus haben. Ein funktionierendes Wholesale-Angebot kann dabei insbesondere für regionale Anbieter ein "Level Playing Field" schaffen. Es ist unklar, in welchem Umfang dies für einen flächendeckenden Glasfaserausbau in Deutschland zur Verfügung steht. |
| Abstract: | This study examines how backhaul costs in FTTH networks differ depending on the spatial footprint of different types of network operators. The starting point is the assumption that, in addition to population density, the number, size and spatial distribution of access areas also have a significant influence on backhaul costs per connection. Given the heterogeneous settlement structures in Germany, these cost differences are particularly important for competitive FTTH deployment. The analysis is based on a model-supported bottom-up methodology that calculates relative backhaul costs for generic network operator types. These types represent different expansion constellations and footprints, which are approximated using publicly available data on postcode regions. In addition, real, adapted network operator footprints are classified in the scheme of stylised network operators. The modelling is limited to the backhaul costs per connection and does not consider upstream or downstream stages of the value chain. The results are presented as relative cost comparisons and are indicative in nature due to the exemplary scenarios. In addition, qualitative interviews were conducted with network operators to classify and validate the model results. The results show significant cost differences in backhaul depending on footprint. Assuming monopolistic supply, large network operators with contiguous, densely populated service areas have significant cost advantages per connection over smaller or spatially fragmented network operators. Urban regions are generally more cost-effective than rural areas. However, this intuitive pattern becomes less clear when real-world conditions such as actual fibre availability, active connections and contracting rates are taken into account. In urban areas in particular, infrastructure competition and low utilisation can lead to comparatively high backhaul costs per connection. The supplementary interviews highlight the limitations of modelling. Regional cost differences, project-related investment decisions and the availability of wholesale backhaul offerings are not adequately reflected in the model. In practice, third-party wholesalebased infrastructures - where available - contribute to cost reduction and thus replicability, while these options are often lacking in rural areas. Overall, the results show that backhaul costs can have a relevant impact on the economic viability of FTTH deployment. Availability of wholesale offers can create a level playing field, especially for regional providers. It remains questionable to what extent this is available for nationwide FTTH deployment in Germany. |
| Date: | 2025 |
| URL: | https://d.repec.org/n?u=RePEc:zbw:wikdps:334510 |
| By: | Liebe, Andrea; Bürger, Katrin; Happ, Marina; Wiewiorra, Lukas |
| Abstract: | Die Studie untersucht, warum das Teilen von Daten zwischen Unternehmen sein vorhandenes Potenzial bislang nicht ausschöpft, obwohl empirische Befunde zeigen, dass Datenteilen im B2B-Kontext zu zusätzlichen Umsätzen, Effizienzgewinnen und Innovationschancen führen kann. Derzeit bleiben rund 80 Prozent der industriellen Daten ungenutzt. Zentrale Hemmnisse sind rechtliche Unsicherheiten, unzureichende Datenqualität sowie fehlender Zugang zu Daten Dritter. Im Mittelpunkt stehen Unternehmen mit mittlerer Bereitschaft zum Datenteilen. Diese sind dem Datenaustausch grundsätzlich aufgeschlossen, zögern jedoch aufgrund von Unsicherheiten hinsichtlich des Datenwerts, der Preisbildung und der Fairness der Austauschbeziehungen. Die Studie basiert auf einem theoriegeleiteten, literaturbasierten Ansatz sowie leitfadengestützten Expertengesprächen. Ziel ist es, ökonomische Anreizmechanismen zu identifizieren, die Informationsasymmetrien reduzieren, Transparenz erhöhen und eine faire Wertverteilung im Datenaustausch ermöglichen. Ergänzend werden der Data Act und der Data Governance Act hinsichtlich ihrer Eignung zur Förderung tragfähiger Datasharing-Strukturen analysiert. Beide Rechtsakte wirken komplementär: Der Data Act etabliert als regulatorische Ultima Ratio verbindliche Mindeststandards, etwa durch Transparenzpflichten, standardisierte Zugangsrechte und faire Vertragsbedingungen. Der Data Governance Act stärkt über zertifizierte Intermediäre, Neutralitätsanforderungen und institutionelle Vertrauensmechanismen insbesondere Konstellationen mit mittlerer Datenteilungsbereitschaft. Die Studie zeigt bestehende Defizite bei Datenbewertung, dynamischer Preisbildung und Wertverteilungsmodellen auf und betont, dass ein funktionierender europäischer Datenmarkt nur durch das Zusammenspiel von Regulierung und ökonomisch fundierten Anreizsystemen entstehen kann. |
| Abstract: | The study examines why data sharing between companies has not yet reached its full potential, even though empirical findings show that data sharing in a B2B context can lead to additional revenue, efficiency gains and innovation opportunities. Currently, around 80 per cent of industrial data remains unused. The main obstacles are legal uncertainties, insufficient data quality and a lack of access to third-party data. The focus is on companies with a moderate willingness to share data. These companies are generally open to data exchange, but hesitate due to uncertainties regarding data value, pricing and the fairness of exchange relationships. The study is based on a theory-driven, literature-based approach and guided expert interviews. The aim is to identify economic incentive mechanisms that reduce information asymmetries, increase transparency and enable fair value distribution in data exchange. In addition, the Data Act and the Data Governance Act are analysed in terms of their suitability for promoting sustainable data sharing structures. Both pieces of legislation are complementary: as a regulatory last resort, the Data Act establishes binding minimum standards, for example through transparency requirements, standardised access rights and fair contractual terms. The Data Governance Act strengthens constellations with a medium willingness to share data in particular through certified intermediaries, neutrality requirements and institutional trust mechanisms. The study highlights existing deficits in data valuation, dynamic pricing and value distribution models and emphasises that a functioning European data market can only be created through the interaction of regulation and economically sound incentive systems. |
| Keywords: | Data Sharing, Unternehmen, Datenschutz, Datenmanagement, Deutschland |
| Date: | 2025 |
| URL: | https://d.repec.org/n?u=RePEc:zbw:wikdps:334489 |
| By: | Steffen, Nico; Kroon, Peter; Wiewiorra, Lukas |
| Abstract: | Die Studie untersucht die systemischen Ursachen, Verbreitungsmechanismen und Gegenstrategien von Desinformation auf Online-Plattformen. Jenseits der reinen Inhaltsprüfung analysiert sie, wie ökonomische Anreizstrukturen im Ad-Tech-Markt und engagement-basierte Algorithmen die Verbreitung polarisierender Inhalte systemisch begünstigen. Ein zentraler Befund ist, dass Desinformation keine zufällige Anomalie, sondern eine profitable Externalität der Aufmerksamkeitsökonomie darstellt. Das Geschäftsmodell der Plattformen priorisiert emotionalisierende Inhalte, während das intransparente Ökosystem der programmatischen Werbung unbeabsichtigt Desinformationsakteure refinanziert. Technologische Trends wie generative KI (inkl. Deepfakes, aber auch "AI Slop") und koordinierte Cross-Platform-Strategien verschärfen diese Dynamik durch sinkende Produktionskosten und Umgehung von Moderationsfiltern. Psychologisch wird die Anfälligkeit der Nutzer weniger durch Wissensdefizite als durch Mechanismen wie "Identity-Protective Motivated Reasoning" und den passiven "News-Finds-Me"-Effekt verstärkt, was reale Schäden bis hin zu stochastischem Terrorismus begünstigen kann. Hinsichtlich der Bekämpfungsstrategien zeigt die Evaluation von Ansätzen wie Prebunking, Friktion und Community Notes deren Grenzen bei Skalierbarkeit, Konsensfindung und möglichen Negativeffekten ("Skeptizismus-Paradoxon") auf. Im regulatorischen Teil kontrastiert die Arbeit das prozessorientierte, risikobasierte Modell des EU Digital Services Act (DSA) mit repressiven, inhaltszentrierten "Fake-News"-Gesetzen in anderen geopolitischen Kontexten. Abschließend leitet die Studie die Notwendigkeit ab, den Fokus von individueller Medienkompetenz auf strukturelle Eingriffe zu verlagern, um die Monetarisierung von Desinformation zu unterbinden und algorithmische Transparenz durchzusetzen. |
| Abstract: | The study examines the systemic causes, dissemination mechanisms, and counterstrategies of disinformation on online platforms. Beyond traditional fact-checking, it analyzes how economic incentive structures in the ad tech market and engagement-based algorithms systematically favor the dissemination of polarizing content. A key finding is that disinformation is not a random anomaly, but a profitable externality of the attention economy. The business model of platforms prioritizes emotional content, while the opaque ecosystem of programmatic advertising unintentionally refinances disinformation actors. Technological trends such as generative AI (including deepfakes, but also "AI slop") and coordinated cross-platform strategies exacerbate this dynamic by lowering production costs and circumventing moderation filters. Psychologically, users' vulnerability is reinforced less by knowledge deficits than by mechanisms such as "identity-protective motivated reasoning" and the passive "news finds me" effect, which can ultimately facilitate real damage, including stochastic terrorism. With regard to countermeasures, the evaluation of approaches such as prebunking, friction, and community notes reveals their limitations in terms of scalability, consensus building, and possible negative effects ("skepticism paradox"). In the regulatory section, the paper contrasts the process-oriented, risk-based model of the EU Digital Services Act (DSA) with repressive, content-focused "fake news" laws in other geopolitical contexts. Finally, the study concludes that it is necessary to shift the focus from individual media literacy to structural interventions in order to prevent the monetization of disinformation and enforce algorithmic transparency. |
| Date: | 2025 |
| URL: | https://d.repec.org/n?u=RePEc:zbw:wikdps:334508 |
| By: | Baischew, Dajan; Niedick, Lars; Sörries, Bernd; Stronzik, Marcus |
| Abstract: | Die vorliegende Studie untersucht, ob Versorgungsauflagen im Rahmen der Vergabe von Frequenznutzungsrechten einen Einfluss auf die Qualität der Mobilfunkversorgung haben. Analysiert werden Daten von Mobilfunknutzenden für 112 Netzbetreiber in 32 EUund OECD-Ländern im Zeitraum 2019 bis 2025. Ziel ist es, den Effekt der Auflagen von anderen Faktoren abzugrenzen. Methodisch kommen zwei Ansätze zum Einsatz: Die Differenz-in-Differenzen-Schätzung erlaubt es, Effekte der Strenge der Auflagen isoliert zu betrachten und länder- sowie netzbetreiberspezifische Unterschiede weitgehend zu kontrollieren. Ergänzend wird die Data Envelopment Analysis (DEA) genutzt, um die Effizienz der Netzbetreiber in Bezug auf die bereitgestellte Mobilfunkqualität zu messen. Als Indikatoren dienen Download- und Uploadgeschwindigkeit, Games-Erlebnis sowie Sprachqualität in Apps. Die Ergebnisse zeigen einen leicht positiven und statistisch signifikanten Zusammenhang zwischen strengeren Versorgungsauflagen und einer verbesserten Mobilfunkqualität. Dies betrifft vor allem die Messgrößen Uploadgeschwindigkeit, Games-Erlebnis und Sprachqualität in Apps. Bei der Downloadgeschwindigkeit konnten hingegen keine Unterschiede festgestellt werden. Robustheitstests zeigen, dass unterschiedliche Klassifikationen der Auflagen keinen Einfluss auf die Ergebnisse haben. Darüber hinaus stärkt die Kombination beider Methoden die Validität der Resultate. Da die in dieser Studie betrachteten Versorgungsauflagen vor allem auf eine Flächenabdeckung bzw. eine Abdeckung einer bestimmen Bevölkerungszahl abzielen, die Daten zur Mobilfunkqualität jedoch nutzergeneriert werden und eher kapazitätsbezogen sind (d.h. vor allem Messungen bezogen auf Datenraten, und zwar dort, wo viele Nutzer sind), besteht eine gewisse Diskrepanz zwischen den Messgrößen zur Mobilfunkqualität als abhängige Variable und den Versorgungsauflagen als Erklärungsvariable. Im Gegensatz können aber Spillover- bzw. Crowding-out-Effekte der Versorgungsauflagen analysiert werden. Strengere Auflagen gehen einher mit Verbesserungen bei Uploadgeschwindigkeit, Games-Erlebnis und Sprachqualität in Apps. Dies deutet darauf hin, dass Auflagen zusätzliche Investitionen auslösen, die zu einer insgesamt besseren Netzqualität führen. Dies gilt auch für Regionen, wo die Nutzung schwerpunktmäßig gemessen wird, auf die die Versorgungsauflagen jedoch nicht direkt abzielen. Negative Crowding-out-Effekte, also Verschlechterungen der Netzqualität in städtischen Gebieten zugunsten ländlicher Regionen, konnten nicht festgestellt werden. Die Versorgung in Ballungsräumen, wo die meisten Nutzerdaten entstehen, bleibt gleich bzw. wird leicht besser, während ländliche Gebiete von den Auflagen profitieren. |
| Abstract: | The present study examines whether coverage obligations imposed in spectrum licensing have an impact on the quality of mobile network services. The analysis uses data from mobile network users for 112 operators across 32 EU and OECD countries over the period from 2019 to 2025. The aim is to isolate the effect of such obligations from other factors. Two methodological approaches are applied: The Difference-in-Differences (DiD) estimation allows to isolate the effects of such coverage obligations while largely controlling for country- and operator-specific fixed effects. In addition, Data Envelopment Analysis (DEA) is used to measure the efficiency of mobile operators with respect to the quality of service they provide. Indicators include download and upload speed, gaming experience, and voice quality in apps. The results show a slightly positive and statistically significant relationship between stricter coverage obligations and improved mobile service quality. This effect is particularly pronounced for upload speed, gaming experience, and voice quality. No significant effects were found for download speed. Robustness tests indicate that different classifications of the obligations do not affect the results. Furthermore, the combination of both methods enhances the validity of the findings. Since the coverage obligations considered in this study mainly target geographic coverage or population coverage, while the mobile quality data are user-generated and more capacity-related, there is a certain discrepancy between the dependent variable (mobile service quality) and the explanatory variable (coverage obligations). However, the study allows for the analysis of potential spillover or crowding-out effects of these obligations. Stricter obligations are associated with improvements in upload speed, gaming experience, and voice quality. This suggests that such obligations trigger additional investments, leading to an overall improvement in network quality. This also applies to regions where usage is primarily measured but which are not directly targeted by the coverage requirements. Negative crowding-out effects - i.e., deteriorations in network quality in urban areas in favour of rural regions - were not observed. Coverage in urban areas, where most user data originate, remains stable or slightly improves, while rural areas benefit from the obligations. |
| Keywords: | Mobilkommunikation, Dienstleistungsqualität, Universaldienst, Telekommunikationspolitik, Deutschland |
| Date: | 2025 |
| URL: | https://d.repec.org/n?u=RePEc:zbw:wikdps:334490 |
| By: | Knips, Julian; Wernick, Christian; Lachmann, Menessa Ricarda |
| Abstract: | Der flächendeckende Glasfaserausbau in Deutschland stellt eine große finanzielle Herausforderung für die ausbauenden Unternehmen dar. Neben dem initialen Ausbau, für den in den kommenden Jahren Investitionen in zweistelliger Milliardenhöhe benötigt werden, wird auch die Nachverdichtung bestehender Netze, die größtenteils als Homes Passed ausgebaut wurden, mehrere Milliarden Euro an Investitionsmitteln erfordern. Finanzierungsmöglichkeiten und -konditionen rücken vor diesem Hintergrund zunehmend ins Zentrum der Diskussionen innerhalb der Glasfaserbranche. In einer sowohl gesamtwirtschaftlich, als auch branchenspezifisch anspruchsvollen Gesamtsituation findet sich eine Reihe von Marktteilnehmern in der Situation wieder, investive Mittel für Refinanzierungen sowie die Fortführung bestehender und die Initiierung neuer Projekte einwerben zu müssen. Die Herausforderungen, die sich aus dem gestiegenen Zinsniveau und der Zurückhaltung von Investoren im Hinblick auf Investitionen in den Glasfaserausbau ergeben, betreffen nicht alle Unternehmen bzw. Unternehmensformen in gleichem Umfang. Große börsennotierte Unternehmen, die sich insbesondere über Anleihen finanzieren, sind weniger zinssensibel und oft langfristig finanziert. Zudem finanzieren sie sich bei entsprechender Bonität im Branchenvergleich relativ günstig und können über Anleihenplatzierungen am öffentlichen Kapitalmarkt Mittel von einer Vielzahl von Investoren akquirieren. Stadtwerke und Energieversorger sind in ihren Glasfaseraktivitäten von den Problemen zwar betroffen, jedoch erscheint der Erhalt von Finanzierungen hier als nicht übermäßig kritisch. Als diversifizierte Unternehmen mit oftmals stabilen Cashflows können sie in der Regel Unternehmensfinanzierungen in Anspruch nehmen und haben im Falle von Stadtwerken einen öffentlichen Sicherheitengeber im Hintergrund. Hier steht der kapitalintensive Glasfaserausbau allerdings in einer Mittelverwendungskonkurrenz zur Finanzierung der Energie- und Wärmewende, was die Finanzierungsbedingungen perspektivisch erschweren könnte. Kritisch kann sich die Situation für investorenfinanzierte Unternehmen darstellen. Da ihr Fremdkapital meist aus Projektfinanzierungen stammt, sehen sie sich mit deutlich kürzeren Kreditlaufzeiten und höheren Zinsen als börsennotierte Unternehmen oder Stadtwerke und Versorger konfrontiert. Einige von ihnen müssen aktuell zusätzlich ihre initialen Darlehen aus den späten 2010er Jahren refinanzieren. Während das gestiegene Zinsniveau für die Glasfaserunternehmen als exogener Schock angesehen werden kann, liegt die Zurückhaltung der Fremdkapitalgeber, insbesondere im Bereich der Projektfinanzierung, nicht ausschließlich, aber in hohem Maße an der Kombination aus (zu hohen) Ausbaukosten und (zu niedrigen) Take-up-Raten bzw. Cashflows. Mutmaßlich sind die tatsächlichen Zahlen in vielen Fällen schlechter als die den Businessplänen zugrundeliegenden Annahmen. Sollten Investoren, sowohl im Eigen- wie auch im Fremdkapitalbereich, noch zurückhaltender werden, droht eine Negativspirale: Höhere Take-up-Raten in den HPAusbaugebieten, die die Finanzierung erleichtern bzw. die Zinsen reduzieren würden, bedingen Kapitalzuflüsse für Nachverdichtungs- und Vermarktungsmaßnahmen, so dass sich negative Effekte immer weiter zu verstärken drohen, wenn Unternehmen ihren Ausbau ohne zusätzliche Mittel nicht vervollständigen können, Investoren aber nur zusätzliche Mittel bereitstellen wollen, wenn sich die Geschäftszahlen der Unternehmen wieder verbessern. All dies könnte die Ausbaudynamik im deutschen Glasfasermarkt in den nächsten Jahren spürbar reduzieren, kurzfristig insbesondere im Ausbau von Wettbewerbern. Mittelfristig könnte dies durch den niedrigeren Wettbewerbsdruck aber auch eine Verlangsamung der Ausbauaktivitäten der Deutschen Telekom nach sich ziehen. Im Ergebnis besteht die Gefahr, dass die politisch definierten Breitbandziele verfehlt werden. Risikoabsorbierende staatliche Maßnahmen, wie insbesondere Programme für (Teil- )Bürgschaften oder eine Ausweitung ggf. nachrangiger Kreditmengen von Förderbanken für Glasfaserprojekte, könnten helfen, die Finanzierungssituation zu verbessern, bedürfen jedoch einer punktgenauen Ausgestaltung. Auch Maßnahmen, die darauf ausgerichtet sind, die Take-up-Raten auf FTTH-Netzen zu erhöhen und/oder die Ausbaukosten zu senken, können die Finanzierungsmöglichkeiten der im FTTH-Ausbau engagierten Unternehmen verbessern. Hierzu zählen z.B. eine klar geregelte, zeitnahe Kupfer-Glas-Migration und die Beschleunigung und Digitalisierung von Genehmigungsprozessen. |
| Abstract: | The nationwide rollout of fibre networks in Germany poses a major financial challenge for the companies involved. In addition to the initial rollout, which will require investments in the double-digit billion euro range in the coming years, the densification of existing networks, most of which were built as homes passed, will also require several billion euros in funds. Against this backdrop, financing options and conditions are increasingly becoming the focus of discussions within the fibre industry. In a challenging overall situation, both in terms of the economy as a whole and the industry specifically, a number of market participants find themselves in a position where they need to raise funds for refinancing, continuing existing projects and initiating new ones. The challenges arising from higher interest rates and reluctance of banks and other players to invest in fibre network expansion do not affect all companies or types of companies to the same extent. Large, publicly listed companies, which are financed primarily through bonds, are less sensitive to interest rate changes and are often financed long-term. In addition, if they have the appropriate credit rating, they can obtain financing relatively cheaply compared to other companies in the sector and can raise funds from a large number of investors by placing bonds on the capital market. Municipal utilities and energy suppliers are affected by the problems in their fibre activities, but obtaining financing does not appear to be overly critical for them. As diversified companies with often stable cash flows from other activities, they can usually take advantage of corporate financing and, in the case of municipal utilities, have a public guarantor in the background. However, capital-intensive fibre rollout is in competition with the financing of the energy and heating transition to renewable sources, which could make financing conditions more difficult in the future. The situation can be critical for investor-financed companies. Since their debt usually comes from project financing, they are faced with significantly shorter loan terms and higher interest rates than listed companies or municipal utilities and suppliers. Some of them currently have to refinance their initial loans from the late 2010s. While the rise in interest rates can be seen as an exogenous shock for fibre companies, the reluctance of lenders, particularly for companies in need of project financing, is not exclusively, but to a large extent, due to the combination of (excessively high) rollout/build costs and (excessively low) take-up rates or cash flows. Presumably, the actual figures are worse in many cases than the assumptions underlying the business plans. If investors, both in the equity and debt space, become even more cautious, there is a risk of a negative spiral: higher take-up rates in the homes passed expansion areas, which would facilitate financing and reduce interest rates, require capital inflows for densification and marketing measures. Therefore negative effects threaten to intensify further if companies are unable to complete their expansion without additional funds, but investors are only willing to provide additional funds if the companies' business figures improve. All of this could significantly reduce the pace of rollout in the German fibre market in the coming years, particularly in the short term with regard to expansion by competitors of the incumbent. In the medium term, however, this could also lead to a slowdown in Deutsche Telekom's expansion activities due to lower competitive pressure. As a result, there is a risk that the politically defined broadband goals will not be met. Risk-absorbing government measures, such as programmes for (partial) guarantees or an expansion of subordinated credit volumes from development banks for fibre projects, could help to improve the financing situation, but would need to be designed with precision. Measures aimed at increasing take-up rates on FTTH networks and/or reducing expansion costs can also improve the financing options for companies involved in FTTH rollout. These include, for example, a clearly regulated, timely copper-to-fibre migration and the acceleration and digitisation of approval processes. |
| Keywords: | Glasfaserkommunikation, Deutschland |
| Date: | 2025 |
| URL: | https://d.repec.org/n?u=RePEc:zbw:wikdps:334505 |
| By: | Gries, Christin-Isabel; Wernick, Christian; Tenbrock, Sebastian |
| Abstract: | Künstliche Intelligenz gehört zu den wesentlichen technologischen Treibern im Markt für Medizinrobotik. Sie bietet in vielfältiger Weise Potential für Neu- und Weiterentwicklungen in den Anwendungsfeldern Diagnostik, Chirurgie, Labor und Reha/Therapie. Die verschiedenen Marktsegmente sind dabei sehr spezifisch hinsichtlich ihrer Anbieterstruktur, der Marktreife robotischer Systeme und der Rolle von KI. Die Chirurgie-Robotik ist dabei das am weitesten entwickelte Anwendungsfeld, während die noch junge robotergestützte Diagnostik eine hohe KI-getriebene Dynamik aufweist, Laborrobotik mit ihren logistischen Anwendungen dem industriellen Einsatz ähnelt und Reha- und Therapierobotik als Nischensegment zu sehen ist. Insgesamt sind die aktuell verbreiteten Robotik-Systeme durch einen eher geringen Autonomiegrad gekennzeichnet. Sie unterstützen Menschen bei ihren Tätigkeiten und bieten Entscheidungshilfen. Der Markt für Medizinrobotik ist bereits streng reguliert und unterliegt größtenteils der im Jahr 2017 verabschiedete Medical Device Regulation (MDR), die zeitlich verzögert implementiert wurde und sich aktuell in der Überarbeitung befindet. Mit dem im Mai 2024 verabschiedeten AI Act (KI-Verordnung) müssen sich Unternehmen in allen Branchen auf neue regulatorische Anforderungen einstellen, die als komplex wahrgenommen werden und noch einer stärkeren Konkretisierung bedürfen. Für die Medizinrobotik gilt dies in besonderem Maße, da sie voraussichtlich überwiegend als Hochrisiko-KI eingestuft wird. An der Schnittstelle zwischen den gleichzeitig zu erfüllenden Anforderungen aus KI-Verordnung und MDR gibt es derzeit noch zahlreiche offene Fragen. Die KI-VO als einheitlicher Rechtsrahmen bietet grundsätzlich die Chance, bei einer erfolgreichen Implementierung das Vertrauen in sichere KI-Systeme zu stärken. Dies ist insbesondere für die Akzeptanz KI-basierter Medizinprodukte von herausragender Bedeutung und kann die Wettbewerbsfähigkeit europäischer Medizintechnikhersteller durch Skalierungsmöglichkeiten stärken. Diese Vision erfordert jedoch insbesondere die Schaffung von Rechtssicherheit, Klarheit und Einheitlichkeit bei gleichzeitiger Vermeidung ineffizienter Strukturen und bürokratischer Hemmnisse sowie Unterstützung durch innovationsfreundliche Konzepte. Aktuell ist die Ausgestaltung der KI-VO noch im Fluss, der zeitliche Plan steht ebenso zur Diskussion wie mögliche Vereinfachungen der Anforderungen durch den digitalen Omnibus. |
| Abstract: | Artificial intelligence is one of the key technological drivers in the medical robotics market. It offers high potential for new and further developments in the fields of diagnostics, surgery, laboratories and rehabilitation/therapy. The various market segments are very specific in terms of their supplier structure, the market maturity of robotic systems and the role of AI. Surgical robotics is the most advanced field of application, while robot-assisted diagnostics is in an early phase, highly driven by AI. Laboratory robotics focusing on logistical applications , is similar to industrial use, and rehabilitation/ therapy can be seen as a niche segment. Overall, the robotics systems currently in use are characterised by a relatively low degree of autonomy, supporting humans in their activities and providing decision-making assistance. The market for medical robotics is already strictly regulated and is largely subject to the Medical Device Regulation (MDR) adopted in 2017. It was implemented with a delay and is currently being revised. With the AI Act passed in May 2024, companies in all industries must adapt to new regulatory requirements that are perceived as complex and still need to be further specified. This applies in particular to medical robotics, as it is likely to be classified predominantly as high-risk AI. There are currently still numerous unresolved issues regarding the interplay between the requirements of the AI Regulation and the MDR, which must be met simultaneously. As a uniform legal framework, the AI Regulation offers the opportunity to strengthen confidence in safe AI systems if implemented successfully. This is particularly important for the acceptance of AI-based medical devices and can strengthen the competitiveness of European medical technology manufacturers through scaling opportunities. However, this vision requires, in particular, the creation of legal certainty, clarity and uniformity, while avoiding inefficient structures and inappropriate bureaucratic burden, as well as support through innovation-friendly concepts. The AI Act is still open to change with a postponed timetable and simpler requirements being discussed in the context of the Digital Omnibus which is proposing amendments to the EU's digital regulatory framework as part of a broader simplification and competitiveness initiative. |
| Keywords: | Medizintechnik, Roboterisierung, Künstliche Intelligenz, EU-Recht, Deutschland |
| Date: | 2025 |
| URL: | https://d.repec.org/n?u=RePEc:zbw:wikdps:334486 |