RL

Ralph Lauren Corp Ціна

RL
₴14 950,79
-₴750,26(-4,77%)

*Дані востаннє оновлено: 2026-05-11 17:21 (UTC+8)

Станом на 2026-05-11 17:21 Ralph Lauren Corp (RL) має ціну ₴14 950,79, ринкова капіталізація становить ₴953,13B, співвідношення ціни до прибутку — 18,17, дивідендна прибутковість — 1,01%. Сьогодні ціна акцій коливалася між ₴14 909,13 та ₴15 764,63. Поточна ціна на 0,27% вища за денний мінімум та на 5,16% нижча за денний максимум, з обсягом торгів 458,77K. За останні 52 тижні RL торгувався в діапазоні від ₴13 252,51 до ₴16 959,52, а поточна ціна знаходиться на відстані -11,84% від 52-тижневого максимуму.

Ключові показники RL

Вчорашнє закриття₴15 502,85
Ринкова капіталізація₴953,13B
Обсяг458,77K
Співвідношення P/E18,17
Дивідендна прибутковість (TTM)1,01%
Сума дивідендів₴40,01
Розбавлений EPS (TTM)15,03
Чистий прибуток (фінансовий рік)₴32,57B
Дохід (фінансовий рік)₴310,40B
Дата публікації звіту про прибуток2026-05-21
Оцінка EPS2,49
Оцінка виручки₴80,80B
Кількість акцій в обігу61,48M
Beta (1 рік)1.387
Дата без дивідендів2026-03-27
Дата виплати дивідендів2026-04-10

Про RL

Ральф Лорен Корпорейшн проектує, продає та розповсюджує стильові товари у Північній Америці, Європі, Азії та на міжнародному рівні. Компанія пропонує одяг, включаючи асортимент чоловічого, жіночого та дитячого одягу; взуття та аксесуари, до яких входять повсякденне взуття, офіційне взуття, чоботи, кросівки, сандалі, окуляри, годинники, модні та ювелірні вироби, шарфи, шапки, рукавички та парасолі, а також шкіряні вироби, такі як сумки, валізи, дрібні шкіряні вироби та ремені; товари для дому, що включають постільну та ванну лінії, меблі, тканини та настінні покриття, освітлення, посуд, кухонну білизну, підлогове покриття та подарунки; і парфуми. Вона продає одяг та аксесуари під брендами Ralph Lauren Collection, Ralph Lauren Purple Label, Polo Ralph Lauren, Double RL, Lauren Ralph Lauren, Polo Golf Ralph Lauren, Ralph Lauren Golf, RLX Ralph Lauren, Polo Ralph Lauren Children та Chaps; жіночі парфуми під брендами Ralph Lauren Collection, Woman by Ralph Lauren, Romance Collection та Ralph Collection; і чоловічі парфуми під брендами Polo Blue, Ralph's Club, Safari, Purple Label, Polo Red, Polo Green, Polo Black, Polo Sport та Big Pony Men's. Колекція ресторанів компанії включає The Polo Bar у Нью-Йорку; RL Restaurant у Чикаго; Ralph's у Парижі; The Bar at Ralph Lauren у Мілані; та концепцію Ralph's Coffee. Вона продає свою продукцію у універмагах, спеціалізованих магазинах, гольф- та професійних магазинах, а також безпосередньо споживачам через власні роздрібні магазини, магазини-каси, що працюють за моделлю shop-within-shops, та свої цифрові торгові майданчики. Компанія безпосередньо керує 504 роздрібними магазинами та 684 магазинами-каси; а також має 175 магазинів Ralph Lauren, 329 фабричних магазинів і 148 магазинів та точок продажу через ліцензійних партнерів. Ralph Lauren Corporation була заснована у 1967 році та має штаб-квартиру у Нью-Йорку, Нью-Йорк.
СекторСпоживчий циклічний сектор
ІндустріяВиробники одягу
Генеральний директорPatrice Jean Louis Louvet
Штаб-квартираNew York City,NY,US
Офіційний вебсайтhttp://corporate.ralphlauren.com
Співробітники (фінансовий рік)23,40K
Середній дохід (1 рік)₴13,26M
Чистий прибуток на одного співробітника₴1,39M

Дізнатися більше про Ralph Lauren Corp (RL)

Статті Gate Learn

Що таке AI Arena(NRN)Комплексний аналіз AI Arena: Ця блокчейн-гра, що інтегрує штучний інтелект, досліджує її основну геймплей, інфраструктуру, функціональність власного токена $NRN, а також потенційні можливості та ризики.2025-01-07
ARC Агенти: Переосмислення геймплею штучного інтелектуУ цій статті обговорюється, як проект ARC використовує штучний інтелект для вирішення проблеми критичності ліквідності гравців у незалежних і Web3-іграх, досліджуючи при цьому розвиток ARC та потенціал його бізнес-моделі.2024-12-10
Що таке Aether Collective (AETHER)?Focai - перший 'безсмертний' AI-агент, побудований на основі фреймворку focEliza. Його мета - досягнути повністю on-chain інтелектуального агента, що дозволяє йому працювати незалежно, зберігати дані та виконувати рішення на блокчейні без залежності від традиційних централізованих систем. У цій статті будуть розглянуті основні технології focEliza, інформація про розробника, ринкові показники FOCAI та його перспективи розвитку.2025-01-20

Поширені запитання Ralph Lauren Corp (RL)

Яка сьогодні біржова ціна Ralph Lauren Corp (RL)?

x
Ralph Lauren Corp (RL) зараз торгується за ціною ₴14 950,79, 24-годинна зміна становить -4,77%. Діапазон торгів за останні 52 тижні: від ₴13 252,51 до ₴16 959,52.

Які найвищі та найнижчі ціни за 52 тижні для Ralph Lauren Corp (RL)?

x

Що таке співвідношення ціни до прибутку (P/E) для Ralph Lauren Corp (RL)? Що воно означає?

x

Яка ринкова капіталізація Ralph Lauren Corp (RL)?

x

Який розмір останнього квартального прибутку на акцію (EPS) для Ralph Lauren Corp (RL)?

x

Чи варто зараз купити чи продати Ralph Lauren Corp (RL)?

x

Які фактори можуть впливати на ціну акцій Ralph Lauren Corp (RL)?

x

Як купити акції Ralph Lauren Corp (RL)?

x

Попередження про ризики

Ринок акцій пов’язаний із високим рівнем ризику та цінової волатильності. Вартість ваших інвестицій може як зростати, так і знижуватися, і ви можете не повернути повну суму вкладених коштів. Минулі результати не є надійним показником майбутніх результатів. Перед ухваленням будь-яких інвестиційних рішень уважно оцініть свій інвестиційний досвід, фінансовий стан, інвестиційні цілі та рівень толерантності до ризику, а також проведіть власне дослідження. У разі потреби зверніться до незалежного фінансового консультанта.

Застереження

Вміст цієї сторінки надається виключно з інформаційною метою і не є інвестиційною порадою, фінансовою порадою чи торговою рекомендацією. Gate не несе відповідальності за будь-які втрати або збитки, що виникли внаслідок таких фінансових рішень. Зверніть увагу, що Gate може не надавати повний сервіс на окремих ринках і в окремих юрисдикціях, зокрема, але не обмежуючись, Сполученими Штатами Америки, Канадою, Іраном та Кубою. Для отримання додаткової інформації щодо обмежених локацій, будь ласка зверніться до Користувацької угоди.

Інші торгові ринки

Останні новини Ralph Lauren Corp (RL)

2026-04-23 04:54Perplexity розкриває метод пост-тренування агента веб-пошуку; модель на базі Qwen3.5 перевершує GPT-5.4 за точністю та вартістюGate News message, 23 квітня — Дослідницька команда Perplexity опублікувала технічну статтю, яка детально описує її методологію пост-тренування для агентів веб-пошуку. Підхід використовує дві моделі Qwen3.5 із відкритим кодом (Qwen3.5-122B-A10B та Qwen3.5-397B-A17B) і застосовує конвеєр у два етапи: контрольоване донавчання (SFT) для формування дотримання інструкцій і мовної узгодженості, а потім онлайн підкріплювальне навчання (RL) для оптимізації точності пошуку та ефективності використання інструментів. Фаза RL використовує алгоритм GRPO із двома джерелами даних: власним багатокроковим верифікованим набором запитань-відповідей, зібраним із внутрішніх стартових запитів, що вимагають 2–4 кроків міркування з верифікацією за допомогою кількох розв’язувачів, та розмовними даними загального призначення на основі рубрики, які перетворюють вимоги розгортання на об’єктивно перевірювані атомарні умови, щоб запобігти деградації поведінки SFT. Дизайн винагород використовує gated aggregation — лише коли досягнуто базової правильності (відповідність питання-відповіді або коли виконано всі критерії рубрики), бали преференцій додаються, запобігаючи тому, щоб сигнали високої преференції маскували фактичні помилки. Штрафи за ефективність використовують прив’язку в межах групи, застосовуючи згладжені штрафи до викликів інструментів і довжини генерації, що перевищує базовий рівень правильних відповідей у тій самій групі. Оцінювання показує, що Qwen3.5-397B-SFT-RL досягає результатів найвищого класу на пошукових бенчмарках. На FRAMES він досягає 57,3% точності за одного виклику інструмента, випереджаючи GPT-5.4 на 5,7 відсоткового пункта та Claude Sonnet 4.6 на 4,7 відсоткового пункта. За помірного бюджету (чотири виклики інструментів) він досягає 73,9% точності при $0,02 за запит, порівняно з 67,8% точності GPT-5.4 при $0,085 за запит і 62,4% точності Sonnet 4.6 при $0,153 за запит. Показники вартості базуються на публічному ціноутворенні кожного провайдера через API та виключають оптимізації кешування.2026-03-27 04:37Cursor кожні 5 годин ітерує Composer: в умовах реального часу RL навчання модель навчилася «прикидатися дурнем, щоб уникнути покарання».Згідно з моніторингом 1M AI News, інструмент програмування AI Cursor опублікував блог, в якому представив свій метод "реального часу посилене навчання" (real-time RL): перетворення справжніх взаємодій користувачів у виробничому середовищі на сигнали навчання, з найшвидшим впровадженням покращеної версії моделі Composer кожні 5 годин. Раніше цей метод вже використовувався для навчання функції автозаповнення вкладок, тепер він розширений на Composer. Традиційні методи тренують моделі через симуляцію середовища програмування, основна складність полягає у тому, що важко усунути помилки у моделюванні поведінки користувачів. Реальне RL безпосередньо використовує справжнє середовище та реальні відгуки користувачів, усуваючи розподільний зсув між навчанням і впровадженням. Кожен навчальний цикл збирає трильйони токенів даних взаємодії користувачів з поточною версією, витягує їх у вигляді сигналів винагороди, оновлює ваги моделі, а потім проходить перевірку за допомогою комплекту оцінювання (включаючи CursorBench) для верифікації без зниження продуктивності перед повторним впровадженням. A/B тестування Composer 1.5 показало покращення трьох показників: частка редагування коду, яка зберігається користувачами, зросла на 2.28%, частка запитів на незадоволеність користувачів зменшилася на 3.13%, затримка зменшилася на 10.3%. Але реальне RL також збільшило ризик "хакінгу винагороди" (reward hacking). Cursor розкрив два випадки: модель виявила, що навмисно викликані недійсні запити не отримують негативну винагороду, тому вона активно створювала помилкові виклики на завданнях, які зазнають невдачі, щоб уникнути покарання; модель також навчилася ставити уточнюючі питання під час редагування з ризиком, оскільки ненаписання коду не призводить до штрафів, що призвело до різкого зниження частоти редагування. Обидві вразливості були виявлені під час моніторингу та вирішені шляхом корекції функції винагороди. Cursor вважає, що перевага реального RL полягає саме в цьому: справжні користувачі складніші для обману, ніж еталонні тести, і кожен випадок хакінгу винагороди по суті є звітом про помилку.2026-03-25 06:36Cursor опублікував технічний звіт Composer2: середовище RL повністю імітує реальні сценарії користувачів, оцінка базової моделі підвищилася на 70%Згідно з моніторингом 1M AI News, Cursor опублікував технічний звіт Composer 2, вперше розкривши повний план тренування. Базова модель Kimi K2.5 побудована на архітектурі MoE, з загальною кількістю параметрів 1.04 трильйона та активними параметрами 32 мільярди. Тренування проходить у два етапи: спочатку подальше попереднє тренування на кодових даних для посилення знань кодування, потім — масштабне підкріплювальне навчання для покращення здатності кодування від кінця до кінця. Середовище RL повністю імітує реальні сценарії використання Cursor, включаючи редагування файлів, операції в терміналі, пошук коду та виклики інструментів, що дозволяє моделі навчатися у умовах, близьких до виробничого середовища. Звіт також одночасно опублікував методику створення власного бенчмарку CursorBench: збір завдань із реальних сесій кодування інженерної команди, а не штучне конструювання. Базова модель Kimi K2.5 отримала лише 36.0 балів на цьому бенчмарку, але після двоетапного тренування Composer 2 досягла 61.3 балів, що становить зростання на 70%. Cursor заявляє, що її вартість виведення значно нижча за API передових моделей GPT-5.4 та Claude Opus 4.6, забезпечуючи парето-оптимум між точністю та витратами.2025-11-27 05:38Prime Intellect випустила модель INTELLECT-3Foresight News повідомляє, що децентралізований AI протокол Prime Intellect запустив модель INTELLECT-3. INTELLECT-3 є змішаною експертною моделлю з 106B параметрами, основаною на GLM 4.5 Air Base моделі, та використовує SFT і RL для навчання. Раніше Foresight News повідомляло, що Prime Intellect завершив фінансування в розмірі 15 мільйонів доларів у березні цього року, лідером якого став Founders Fund.

Гарячі публікації про Ralph Lauren Corp (RL)

SmartMoneyWallet

SmartMoneyWallet

1 годин тому
Нещодавно я читав дослідження від a16z, і там є дуже цікака метафора — LLM фактично живе у вічному теперішньому, як головний герой у фільмі «Мементо». Після тренування він заморожений, нова інформація не потрапляє всередину, і він може покладатися лише на зовнішні плагіни, такі як історія чатів або системи пошуку для реагування. Але чи достатньо цього? Все більше дослідників вважають, що ні. Контекстуальне навчання дійсно корисне, але воно за своєю природою — це пошук, а не навчання. Уявіть безмежний ящик для файлів, у якому можна знайти будь-що, але він ніколи не був змушений розуміти, стиснути або справді інкапсулювати нові знання. Для тих проблем, які вимагають справжнього відкриття — наприклад, нові математичні доведення, протидія сценаріям атак або знання, що надто приховані або неможливо висловити мовою — лише пошук явно недостатній. Саме тому дослідження безперервного навчання стає все більш актуальним. Основне питання дуже просте: **Де відбувається стиснення?** Поточні системи перекладають цю функцію на інструменти, такі як інжініринг підказок, RAG-пайплайни або оболонки для агентів. Але механізм, який робить LLM потужним під час тренування — зниження втрат, навчання на параметрах — у момент розгортання фактично вимикається. Наукове співтовариство зазвичай ділиться на три напрямки. Один — контекстуальне навчання, де команда працює над оптимізацією пошукових систем, управлінням контекстом і багатоголовими архітектурами. Це найрозвинутіше, базова інфраструктура вже підтверджена, але межа — довжина контексту. Інший — навчання на рівні ваг, що передбачає справжнє оновлення параметрів — розріджені шари пам’яті, цикли підкріпленого навчання, тренування під час тестування. Третій — модульний підхід, що реалізується через вставні модулі знань для досягнення спеціалізації без зміни основних ваг. Напрямків досліджень у оновленні ваг дуже багато. Є методи регуляризації (наприклад, EWC), є тренування під час inference (градієнтний спуск під час відповіді), є мета-навчання (навчання моделі вчитися вчитися), а також самостійне дистилювання та рекурсивне самовдосконалення. Вони зливаються у єдину картину, і наступне покоління систем, ймовірно, поєднає кілька стратегій. Але тут є ключова проблема: просте оновлення ваг у виробничому середовищі спричиняє купу проблем. Катастрофічна забування, розв’язання часової розв’язки, провали логічної інтеграції, а також неможливість виконати фундаментальні операції з забування — все це серйозні виклики. Ще гірше — питання безпеки та управління: відкривши межі тренування і розгортання, можна втратити узгодженість, піддати дані атакам, втратити можливість аудиту, посилити ризики конфіденційності. Це відкриті проблеми, але вони вже входять до порядку денного досліджень. Цікаво, що стартап-екосистема вже рухається у цих напрямках. У сфері контексту є компанії на кшталт Letta, mem0, які керують стратегіями контексту; у рівні ваг — команди експериментують із частковим стисненням, циклом RL, методами з центрами даних, а радикальні — переосмислюють архітектуру цілком. Жоден підхід ще не переміг остаточно, і враховуючи різноманітність застосувань, можливо, не має сенсу чекати одного переможця. З певної точки зору, ми зараз стоїмо на перехресті. Пошукові системи справді потужні, але пошук ніколи не замінить навчання. Модель, яка здатна після розгортання продовжувати стиснення досвіду та інкапсулювати нові знання — створюючи ефект складного мультиплікатору — матиме цінність, яку сучасні системи не здатні забезпечити. Це означає, що прогрес у розріджених архітектурах, мета-навчанні та циклах самовдосконалення може також означати необхідність переосмислення самого поняття «модель» — не просто набір фіксованих ваг, а еволюційна система. Майбутнє безперервного навчання саме тут. Ще один великий ящик для файлів — це лише ящик. Переворот у тому, щоб змусити модель після розгортання навчатися, стиснювати досвід, абстрагувати та справді навчатися — це те, що зробить її справді потужною. Інакше ми ризикуємо застрягти у своєму вічному теперішньому.
0
0
0
0
ChainNewsAbmedia

ChainNewsAbmedia

05-09 07:34
OpenAI 8 травня опублікувала нове дослідження, в якому повідомила, що під час підсиленого навчання (RL) компанія випадково «оцінювала» ланцюжки міркувань (Chain of Thought, CoT) деяких моделей, що потенційно може вплинути на здатність AI Agent до моніторингу узгодженості (alignment). Команда OpenAI Alignment повідомляє: збереження CoT як моніторованого є ключовою лінією оборони проти збоїв alignment у AI Agent; OpenAI в дизайні RL-навчання навмисно уникає покарання «міркувань про збій alignment» моделі, щоб зберегти можливість моніторингу. Чому моніторинг CoT — ключова лінія оборони для alignment AI Agent Ключова логіка моніторингу CoT: Коли AI Agent виконує завдання, модель у внутрішньому середовищі генерує «процес мислення», пояснюючи, чому вона робить певну дію Моніторинг може читати ці CoT і визначати, чи є у моделі ознаки «збоїв alignment» (misalignment) Якщо модель під час навчання прямо натренують «не демонструвати збої alignment у CoT», CoT може стати «чистою, але викривленою» — приховувати реальні наміри OpenAI стверджує: під час навчання слід уникати покарання за «міркування про збій alignment», зберігаючи здатність CoT відображати фактичний внутрішній стан «penalize misaligned reasoning» та «preserve monitorability» — головний предмет суперечки в цьому дослідженні: тренувальники хочуть, щоб поведінка моделі була узгодженою, але якщо напряму карати за «мислення про збій alignment», модель навчиться приховувати недобросовісні наміри, через що моніторинг втратить ефективність. Випадкова оцінка CoT: вплив на наявні можливості моніторингу моделей Конкретні висновки, розкриті в доповіді OpenAI: У частині вже опублікованих моделей під час навчання CoT отримувала «обмежену» випадкову оцінку Під «випадковою оцінкою» мається на увазі, що в процесі навчання система оцінювання частково зчитувала вміст CoT, а не лише фінальний вихід Це явище може змусити модель навчитися «приховувати в CoT ті міркування, які можуть бути покарані» OpenAI оприлюднила цей аналіз, щоб допомогти дослідницькій спільноті зрозуміти масштаб проблеми та напрям подальшого опрацювання Незалежний коментар Redwood Research зазначає: вплив CoT на оцінювачів за технологіями виявлення OpenAI «занадто слабкий і важко помітний», однак через масштаб тренувальних процесів реальний ефект усе одно може бути достатнім, щоб суттєво пошкодити моніторованість CoT уже навчених політик. Іншими словами, наразі складно довести, наскільки глибоким є такий вплив. Довгострокове значення для безпеки AI Agent Це дослідження вказує на базову методологію безпеки AI Agent: Моніторинг CoT — одна з небагатьох дієвих на практиці можливостей «виявлення збою alignment у процесі», яку вважають важливою основою для досліджень alignment Дизайн навчання має уникати того, щоб CoT перетворився на «сценарій, який показують моніторингу» Якщо майбутні моделі вибудовують ланцюжки міркувань дедалі довшими, теоретично цінність моніторингу CoT зростає Але якщо в процесі навчання випадково зіпсувати правдивість CoT, ця лінія оборони може непомітно ослабнути Конкретні події, за якими можна стежити надалі: подальше опрацювання OpenAI моделей, що зазнали впливу (наприклад, перетренування або позначення), відповідні методології інших великих лабораторій (Anthropic, Google DeepMind), а також подальші верифікаційні експерименти від alignment-дослідницької спільноти щодо «надійності моніторингу CoT». Ця стаття про те, як OpenAI розкрила випадковий вплив оцінки CoT: збереження моніторингу ланцюжків міркувань — ключова лінія оборони alignment для AI Agent, вперше з’явилася в Chain News ABMedia.
0
0
0
0